Nvidia släpper drivrutin för Tomb Raider, The Division och externa grafikkort

Permalänk
Melding Plague

Nvidia släpper drivrutin för Tomb Raider, The Division och externa grafikkort

Grafikjätten Nvidia smider medan järnet är varmt och släpper en drivrutin med optimeringar för senaste Tomb Raider och kommande The Division, samt ger stöd för externa grafiklösningar via Thunderbolt 3.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Jag fattar inte varför tillverkare de senaste åren har blivit tvungna att göra spel specifika justeringar, i samband med varje release.
Är det mest att man vill visa att man är på hugget som tillverkare? Varför kunde man inte göra dessa strax INNAN spelet släptes? Har någon verifierat att just dessa uppdateringar faktiskt gör en skillnad eller är det mest marknadsåtgärder?

Visa signatur

Dator: AMD 5800X, ASUS RTX3060, 32GB RAM, Windows 10
Server: Intel NUC i5-4250U, 16GB RAM, Debian

Permalänk
Medlem
Skrivet av Outlaw84:

Jag fattar inte varför tillverkare de senaste åren har blivit tvungna att göra spel specifika justeringar, i samband med varje release.
Är det mest att man vill visa att man är på hugget som tillverkare? Varför kunde man inte göra dessa strax INNAN spelet släptes? Har någon verifierat att just dessa uppdateringar faktiskt gör en skillnad eller är det mest marknadsåtgärder?

De är säkert klara innan lansering.

Men det roliga är externa grafikkort tycker jag.

Skickades från m.sweclockers.com

Visa signatur

Regn är snö på sommarn.

Permalänk
Medlem

Jo, älskar stödet för externa grafikkort
Kan efter den nya drivrutinen göra en Safe Remove på mina 980Ti.
Så nu hoppar dom väl ut ur datorn om man kör denna nya feature.

OBS! Känd bugg i denna release men den va lite skoj när man fick upp dom som USB enheter och skulle kunna göra en Safe remove.

Visa signatur

..:[EVGA Z97 Classified][Intel Core i7 4790K @ 4.8][4x8GB Dominator @ 2133 XMP][2x EVGA GTX 980 Ti SC+ ACX 2+][Cooling EKWB custom loop]:..
..:[EVGA X99 FTW K][Build in progress]:..

Permalänk
Medlem
Skrivet av Outlaw84:

Jag fattar inte varför tillverkare de senaste åren har blivit tvungna att göra spel specifika justeringar, i samband med varje release.
Är det mest att man vill visa att man är på hugget som tillverkare? Varför kunde man inte göra dessa strax INNAN spelet släptes? Har någon verifierat att just dessa uppdateringar faktiskt gör en skillnad eller är det mest marknadsåtgärder?

Helt enkelt för att spelskaparna har tagit för vana att låta drivrutinerna ta hand om felen som de gör.
Med DX12 så finns potentialen för spelskaparna att själva göra i princip allt, men det är nog få som kommer utnyttja och kommer sannolikt bara ske via de vanliga motorerna, medans de flesta andra spel kommer använda sig av DX12 högre nivåer som är mer likt dagens DX11.

Permalänk
Medlem
Skrivet av LazySoft:

Jo, älskar stödet för externa grafikkort
Kan efter den nya drivrutinen göra en Safe Remove på mina 980Ti.
Så nu hoppar dom väl ut ur datorn om man kör denna nya feature.

OBS! Känd bugg i denna release men den va lite skoj när man fick upp dom som USB enheter och skulle kunna göra en Safe remove.

Japp, kan intyga att vid grafikkortsbyte så kan man välja safe remove av grafikkortet innan man stänger ner Windows. Döm min förvåning när Grafikkortet låg redo att plockas upp på botten i Chassit när jag öppnade sidopanelen, perfekt då slipper man pilla på moderkortet

Visa signatur

Case: Silverstone Alta F1 PSU: Corsair HX1200 Cablemod MB: Asus ROG Z790 Maximus Hero CPU: i9 13900K Cooler: Arctic Liquid Freezer II 360 Memory: Kingston 32GB DDR5 6400MHz CL32 FURY Renegade GFX: Palit RTX 4090 Gamerock OC HDD: Samsung 990 Pro 2 TB / 2 x Samsung 860 Pro 4 TB Monitors: Alienware AW3423DW QD-OLED + XB271HU T-Board: Logitech G915 Mouse: Logitech G502 Lightspeed Headset: Steelseries Pro Wireless Speakers: Harman Kardon GLA-55 Consoles: Playstation 5 / XBSX /Switch

Permalänk
Medlem
Skrivet av Blackie:

Japp, kan intyga att vid grafikkortsbyte så kan man välja safe remove av grafikkortet innan man stänger ner Windows. Döm min förvåning när Grafikkortet låg redo att plockas upp på botten i Chassit när jag öppnade sidopanelen, perfekt då slipper man pilla på moderkortet

Nästa steg och prova är att hotswappa under pågående spelande, vilket ju borde vara möjligt med denna feature. Nvidia tänker då på allt

Visa signatur

..:[EVGA Z97 Classified][Intel Core i7 4790K @ 4.8][4x8GB Dominator @ 2133 XMP][2x EVGA GTX 980 Ti SC+ ACX 2+][Cooling EKWB custom loop]:..
..:[EVGA X99 FTW K][Build in progress]:..

Permalänk
Medlem
Skrivet av Outlaw84:

Jag fattar inte varför tillverkare de senaste åren har blivit tvungna att göra spel specifika justeringar, i samband med varje release.

Lata spelutvecklare, mostly. I en perfekt värld så hade hårdvarutillverkarna byggt hårdvara och skrivit drivrutiner som optimerar hårdvarans funktionalitet så gott det går, sen ska abstraktionslager, APIer osv kunna dra nytta av den prestanda som finns utan vidare bök och stök. Men men.

Ska bli intressant att se hur lång tid AMD tar på sig att få ut en motsvarighet till denna - med tanke på att både Xbox One och PS4 kör AMD-hårdvara så kan man tycka att de bör ha varit någorlunda involverade i utvecklingen av Snowdrop-motorn och The Division.

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem

Någon som installerat denna och stött på problem i spel?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Skrivet av Blackie:

Japp, kan intyga att vid grafikkortsbyte så kan man välja safe remove av grafikkortet innan man stänger ner Windows. Döm min förvåning när Grafikkortet låg redo att plockas upp på botten i Chassit när jag öppnade sidopanelen, perfekt då slipper man pilla på moderkortet

Dålig att det helt enkelt inte bara matades ut som en DVD-skiva. Men du kanske inte har några 5,25''-platser?

Visa signatur

i5 8400 / Gigabyte B360N Wifi / GTX 1080 / CoolerMaster NR200P / EVGA SuperNova GM 650 / Corsair Vengance LPX 16 GB DDR4 @ 2666mhz / Sandisk A110 & OCZ Trion 150 / Noctua NH-L12S

Permalänk
Medlem

@ClintBeastwood: Jag tycker mig få bättre prestanda i Fallout 4 med 680 SLI.
Inte stött på några konstigheter ännu.

Edit: Vill bara påpeka att Fallout 4 inte stöder SLI, men bättre prestanda med 680 singel iaf!

Permalänk
Medlem
Skrivet av heffaklumpmamma:

Dålig att det helt enkelt inte bara matades ut som en DVD-skiva. Men du kanske inte har några 5,25''-platser?

Tror nog Chassi tillverkarna är tagna på sängen här. Skrotar ju alla 5,25" platser.
Så vi får nog se chassin med utmatare av grafikkorten i bakkant under året

Visa signatur

..:[EVGA Z97 Classified][Intel Core i7 4790K @ 4.8][4x8GB Dominator @ 2133 XMP][2x EVGA GTX 980 Ti SC+ ACX 2+][Cooling EKWB custom loop]:..
..:[EVGA X99 FTW K][Build in progress]:..

Permalänk
Medlem
Skrivet av heffaklumpmamma:

Dålig att det helt enkelt inte bara matades ut som en DVD-skiva. Men du kanske inte har några 5,25''-platser?

hehe, precis mitt H440 chassi saknar tyvärr dessa, men man kanske kan göra nån typ av brevlådefunktion på ena sidopanelen

Visa signatur

Case: Silverstone Alta F1 PSU: Corsair HX1200 Cablemod MB: Asus ROG Z790 Maximus Hero CPU: i9 13900K Cooler: Arctic Liquid Freezer II 360 Memory: Kingston 32GB DDR5 6400MHz CL32 FURY Renegade GFX: Palit RTX 4090 Gamerock OC HDD: Samsung 990 Pro 2 TB / 2 x Samsung 860 Pro 4 TB Monitors: Alienware AW3423DW QD-OLED + XB271HU T-Board: Logitech G915 Mouse: Logitech G502 Lightspeed Headset: Steelseries Pro Wireless Speakers: Harman Kardon GLA-55 Consoles: Playstation 5 / XBSX /Switch

Permalänk
Medlem

@LazySoft:

Japp, hur tänkte dom där

Visa signatur

Case: Silverstone Alta F1 PSU: Corsair HX1200 Cablemod MB: Asus ROG Z790 Maximus Hero CPU: i9 13900K Cooler: Arctic Liquid Freezer II 360 Memory: Kingston 32GB DDR5 6400MHz CL32 FURY Renegade GFX: Palit RTX 4090 Gamerock OC HDD: Samsung 990 Pro 2 TB / 2 x Samsung 860 Pro 4 TB Monitors: Alienware AW3423DW QD-OLED + XB271HU T-Board: Logitech G915 Mouse: Logitech G502 Lightspeed Headset: Steelseries Pro Wireless Speakers: Harman Kardon GLA-55 Consoles: Playstation 5 / XBSX /Switch

Permalänk
Medlem

Kommer detta bli ett lika populärt som alla Zen-skämt nu?

@biorrith
Okej, får testa dom.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av biorrith:

@ClintBeastwood: Jag tycker mig få bättre prestanda i Fallout 4 med 680 SLI.
Inte stött på några konstigheter ännu.

Edit: Vill bara påpeka att Fallout 4 inte stöder SLI, men bättre prestanda med 680 singel iaf!

Har du kollat så du inte råkat göra safe remove på ena kortet, det kanske förklarar den ökade prestandan då Fallout inte stödjer SLi

Visa signatur

Case: Silverstone Alta F1 PSU: Corsair HX1200 Cablemod MB: Asus ROG Z790 Maximus Hero CPU: i9 13900K Cooler: Arctic Liquid Freezer II 360 Memory: Kingston 32GB DDR5 6400MHz CL32 FURY Renegade GFX: Palit RTX 4090 Gamerock OC HDD: Samsung 990 Pro 2 TB / 2 x Samsung 860 Pro 4 TB Monitors: Alienware AW3423DW QD-OLED + XB271HU T-Board: Logitech G915 Mouse: Logitech G502 Lightspeed Headset: Steelseries Pro Wireless Speakers: Harman Kardon GLA-55 Consoles: Playstation 5 / XBSX /Switch

Permalänk
Hjälpsam
Skrivet av LazySoft:

Nästa steg och prova är att hotswappa under pågående spelande, vilket ju borde vara möjligt med denna feature. Nvidia tänker då på allt

Nu väntar jag på att AMD inför detta, så man enkelt kan byta mellan respektive märke.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Outlaw84:

Jag fattar inte varför tillverkare de senaste åren har blivit tvungna att göra spel specifika justeringar, i samband med varje release.
Är det mest att man vill visa att man är på hugget som tillverkare? Varför kunde man inte göra dessa strax INNAN spelet släptes? Har någon verifierat att just dessa uppdateringar faktiskt gör en skillnad eller är det mest marknadsåtgärder?

Nvidia måste.

Deras kort är enormt beroende på optimeringar för att få deras hårdvara att göra bra resultat. AMD mår naturligtvis bra av optimeringar också, ingen tvekan om det, men Nvidia lever på det. Tittar man på rå prestanda så får Nvidia ut betydligt mer ur klenare hårdvara, men problemet blir som sagt att allt blir beroende på optimeringar för varje speltitel/kort som släpps. Detta gör att äldre Nvidia kort ofta hamnar på efterkälken rätt fort, då de redan är maximalt optimerade, och när de blir gamla så spenderar inte Nvidia tiden på att fortsätta med detta till nyare spel.

Sen har Nvidia jädrigt bra drivrutinsprogrammerare, vilket gör att de gärna gör dessa släpp för att kunna visa att "vi minsann har 5 fps mer än motsvarande AMD kort", då folk köper det då. Och självklart, 5 fps kan göra skillnad så jag förstår dem. AMD har dock förr valt att låta deras kraftigare hårdvara göra allt jobbet, vilket gör att man får rätt konstant prestanda genom de flesta spel, flesta generationer och att äldre kort inte nödvändigtvis blir sämre för att de inte optimeras lika ofta. När väl AMD optimerar så blir det som 7970/290 korten som än idag hänger mer rätt bra...

Att man väntar till större spelsläpp är pga man inte vill släppa en ny för ofta, och då väljer att släppa den när en ny stortitel släpps, även om det även innehåller andra optimeringar för andra spel (precis som artikeln säger).

Permalänk
Medlem
Skrivet av Arzei:

Ska bli intressant att se hur lång tid AMD tar på sig att få ut en motsvarighet till denna - med tanke på att både Xbox One och PS4 kör AMD-hårdvara så kan man tycka att de bör ha varit någorlunda involverade i utvecklingen av Snowdrop-motorn och The Division.

Men är AMD involverade i "drivrutinerna" för dessa konsoller?

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Datavetare

Anledningen till dessa drivrutinssläpp är mycket riktigt optimeringar, men det har överhuvudtaget inget att göra med underliggande GPU-design att göra utan det har helt att göra med DX11 och dess tillkortakommanden.

Det är tvärt om så att Maxwell är den GPU-design som verkar mest "robust" av alla varianter idag, Kepler är mest "bräcklig" medan GCN ligger någonstans mittemellan. "robust" är en design som presterar helt OK även på det som inte är specifikt optimerat för kretsen, "bräcklig" är det omvända. Andra exempel på "bräcklig" design är CPU-delen i PS3/360, medan CPU-delen i PS4/XBO är en "robust" design.

Vad dessa optimerade drivare för är lägger till information hur respektive titel typiskt uppför sig mot DX11 APIet. Den informationen är viktig då det skulle bli hopplöst långsamt om varje anrop mot DX11 faktiskt resulterade i ett anrop mot GPUn, de flesta anrop cachas därför bara i RAM och i något läge drar man iväg en hel batch till GPUn.

En av de stora fördelarna med DX12 och Vulkan är att man slipper denna gissningslek, där är det upp till speltiteln att explicit tala om när kommunikation med GPU sker. I DX12/Vulkan cachas i princip alla "draw-calls" i RAM by design och detta är en del i anledning både till att dessa varianter har möjlighet att bättre utnyttja flera CPU-kärnor och att de kan hantera fler "draw-calls".

Att dessa spel specifika optimeringar verkar bli allt viktigare beror nog mest på att man börjar pusha mängden "draw-calls" rätt långt givet designen i DX11, det blir då allt viktigare att de gissningar drivern gör om vad som bör cachas och när batchen så gå till GPU blir nära optimal, något som är väldigt svårt givet den information en driver har om vad spelet kan tänkas göra.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Anledningen till dessa drivrutinssläpp är mycket riktigt optimeringar, men det har överhuvudtaget inget att göra med underliggande GPU-design att göra utan det har helt att göra med DX11 och dess tillkortakommanden.

Generellt är det också en vidareutveckling av drivern, buggfixar, nya finesser etc. Nvidia har en ny strategi och passar på att släppa sina releaser i samband med stora spelsläpp på PC. Det ger ökad exponering både för Nvidia och spelen (som ofta har Nvidia-specifika funktioner).

Om du kollar ett tag bakåt på Nvidias senaste driver-släpp, så ser du att alla är "Game Ready". Det innebär inte att de slutat uppdatera drivern generellt, utan de har bara ändrat strategi för hur de släpper dem. Det fanns optimeringar för spel långt innan de ändrade detta.

Permalänk
Medlem

@Yoshman Tack för den utförliga förklaringen.

Jag har alltid tyckt det är lustigt att det behövs lappas så mycket!