Nvidia berättar hur bolaget förbättrar uppskalningstekniken DLSS

Permalänk
Medlem

Adobe ringde och vill ha ersättning för användandet av gausian blur.

Skickades från m.sweclockers.com

Permalänk
Medlem

Ahh, DLSS-memes.
Bästa hårdvaru(eller mjukvaru?)-relaterade memen jag sett på länge.

Nvidia har blivit en riktig meme-fabrik på sistonde, ivrigt påhejad av "Jensen" själv.
Meme-tracing, it just works! Gigamemes!

Om slutpriset på GTX 1660 Ti hamnar på över 3200:- i svenska butiker lär den också bli en meme.
Finns ingen vettig anledning att inte lägga till en femhundring för RTX 2060.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av marcusOCZ:

Vem med vettet i behåll har AA över huvud taget när dom spelar i 4k? Det behövs ju inte. I alla fall på upp till 32" skärmar. Kanske 40" och uppåt, men då sitter man väl längre undan så det jämnar ut sig (nu pun intended)

Och 4K med raytracing på..jo tjena. Nästa bild tack.

Snackar du om DLSS nu eller? För det är ingen AA teknik tekniskt sett. Det handlar om uppskalning. Dvs du har spelet inställt på 4K men det renderas lägre och så ska DLSS sköta denna uppskalningen till 4K.

Dvs själva grejen med DLSS är ju att man ska kunna köra RT och 4K samtidigt istället för 1080p eller 1440p pga denna uppskalning....som fungerar "sådär" än så länge.

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk

@MarkSix: Varför skulle man lyssna på någon som "svarar" på kritik när de ljugit hejdlöst från början om teknikens förträfflighet?

Permalänk
Medlem
Skrivet av Söderbäck:

Hmm. Kan det röra sig om ett missförstånd här kanske? Nvidias servrar är inte inblandade när kör något på din dator. Det man använder serverparkerna till är att i förtid ta fram bildmaterial som kan stoppas in för att förbättra bildkvalitén för lägre upplösningar. Nvidia kör alltså sina servrar på högvarv innan spelet ens släpps och det är inte kopplat till vad du gör på datorn.

Det låter som om NVIDIA vill knyta speltillverkare hårdare till sig och sälja licenser eller servertid. Snackar man inte pengar med dem får man inte deras balla ”AI”-funktioner i sitt spel. Gissa vilken hårdvara man behöver för att kunna köra träningen.

Permalänk
Medlem
Skrivet av Zero Cool:

Fungerar det alltså så, att om man spelar i säg 1080p och slår på DLSS. Då sänkes upplösningen till något ännu lägre (fps ökar då), ... Eller har jag missat något?

Helt rätt, förutsatt att du har ett tillräckligt klent grafikkort med tensorkärnor. Med DLSS kan du då förvänta dig bildfrekvens på stundtals över 60 fps.
Är ditt grafikkort så kraftfullt att DLSS inte hänger med stängs funktionen av.

Skrivet av superapan:

Är det bara jag som tycker det är lite obehagligt att Nvidias serverparker ska lägga sig i när jag spelar? /foliehatt on

Skrivet av Söderbäck:

Det du sedan gör är att hämta hem det här paketet med servergenererat innehåll ...

Frågan är väl när/hur denna kommunikation sker. Det har jag inte sett någon redogörelse för.

Nvidia hävdar även att bildkvaliteten med DLSS (för ett givet spel) ökar över tid allteftersom deras AI lär sig arbeta med det. Så om något år ser BF5 med DLSS bättre ut än det gör i dag. Man kan nog även vända på steken och konstatera att titlar med stöd för DLSS alltid kommer se sämst ut (med DLSS aktiverat) när de är nya.

Permalänk
Medlem

@Olle_P

"Helt rätt, förutsatt att du har ett tillräckligt klent grafikkort med tensorkärnor. Med DLSS kan du då förvänta dig bildfrekvens på stundtals över 60 fps.
Är ditt grafikkort så kraftfullt att DLSS inte hänger med stängs funktionen av."

Så det är som funktionen vi hittar i en del spel på PC men mest på konsol? Du vet när upplösningen sänks för att hålla en viss fps. Fast tvärt om. Typ

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Hjälpsam

De har inte fixat DLSS på ett halvårs körningar, finns inget som talar för att de kommer att fixa det nu.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Folk har såna krav idag. Minns när man fick köra duke nukem 3d i 320*200 med detaljer på low, fan va fint det va. Minecraft är en ripoff på det spelet helt klart😁

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Ratatosk:

De har inte fixat DLSS på ett halvårs körningar, finns inget som talar för att de kommer att fixa det nu.

Ju mer en läser om det så verkar det faktiskt vara en död häst innan det ens börjat.
Jag har blandade känslor om det.

1. Jag gillar ny teknik. Fin bild på fler fps vill vi alla ha. Så kul om det funkat.

2. Om det måste köras på Nvidias servrar så innebär det... Ja vad innebär det för oss och dom som gör spelen?
Det är inte helt klargjort än. Så många scenarion det kan innebära.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av Lordsqueak:

Undrar lite lätt hur stora "källfilerna" för DLSS blir.

Också funderat på detta. Gjort lite maskinlärning på oplika saker och beroende på träningsdatan så har jag haft modeller som är allt från 20-30MB till 1GB+. Det för varje spel som stödjer DLSS kan nog bloata drivrutinspaketen rätt bra.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av Ratatosk:

De har haft ett halvt år på sig.

Skrivet av Ratatosk:

De har inte fixat DLSS på ett halvårs körningar, finns inget som talar för att de kommer att fixa det nu.

Räckte det inte med ett inlägg eller?

Inte för att jag har några större förhoppningar på DLSS, gillar iof iden med HW-accelererad uppskalning/aa, dock känns det otroligt yxigt med denna machine learning approach om man måste kör titel för titel samt att det verkar uppenbarligen vara yxigt att implementera, dock så är väl ett halvår inte speciellt mycket i sammanhanget eller? Kan säga att det är rätt mycket tekniker som tagit mer än 6 månader att mogna...

Permalänk
Hjälpsam
Skrivet av sKRUVARN:

Räckte det inte med ett inlägg eller?

Inte för att jag har några större förhoppningar på DLSS, gillar iof iden med HW-accelererad uppskalning/aa, dock känns det otroligt yxigt med denna machine learning approach om man måste kör titel för titel samt att det verkar uppenbarligen vara yxigt att implementera, dock så är väl ett halvår inte speciellt mycket i sammanhanget eller? Kan säga att det är rätt mycket tekniker som tagit mer än 6 månader att mogna...

Glömde bort mitt tidigare, de blev onekligen ganska lika varandra.
Raderat mitt första.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Tror aldrig att detta kommer att bli "good enough". När jag spelar FPS behöver jag kunna se motståndaren innan eller åtminstone på samma gång. Kan inte titta genom en tub vaselin och försöka gissa mig till om det är ett träd, en lastbil eller en fiende.

Skrivet av sKRUVARN:

Inte för att jag har några större förhoppningar på DLSS, gillar iof iden med HW-accelererad uppskalning/aa, dock känns det otroligt yxigt med denna machine learning approach om man måste kör titel för titel samt att det verkar uppenbarligen vara yxigt att implementera, dock så är väl ett halvår inte speciellt mycket i sammanhanget eller? Kan säga att det är rätt mycket tekniker som tagit mer än 6 månader att mogna...

Ja, på sex månader har DLSS mognat lika bra som en banan hade gjort på 6 månader.

Skrivet av Zemlan:

som fungerar "sådär" än så länge.

Om du byter ut "sådär" med "inte alls" så är jag med dig

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Zemlan:

Snackar du om DLSS nu eller? För det är ingen AA teknik tekniskt sett. Det handlar om uppskalning. Dvs du har spelet inställt på 4K men det renderas lägre och så ska DLSS sköta denna uppskalningen till 4K.

Dvs själva grejen med DLSS är ju att man ska kunna köra RT och 4K samtidigt istället för 1080p eller 1440p pga denna uppskalning....som fungerar "sådär" än så länge.

Skickades från m.sweclockers.com

Nvidia snackar ju själva om att DLSS är en ersättare av traditionell AA och att det mest är menat för högre upplösningar såsom 1440p och 4k. Det jag säger är att i 4k behöver man inte AA alls, slå det helt av. Vad skulle DLSS ersätta då? Det enda du får just nu i alla fall, är -3 på bägge ögonen.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem

"We built DLSS to leverage the Turing architecture’s Tensor Cores and to provide the largest benefit when GPU load is high."

Översättning: Vi hade hårdvaran som inte direkt var tänkt för gaming först utan för ML-marknaden. Därefter insåg vi att köra tensor cores sekventiellt inte skulle vara så passande i den vanliga grafik/compute pipelinen, då arbetet som utförs måste vara förhållandevis stort sett till exekveringstiden i vanliga fall. Vi kom på DLSS för att den tar både och reducerar arbetet som krävs i vanliga fall för grafik och compute, och använder sedan denna tid för DLSS. Problemet är bara det verkar kräva månadsvis (?) av träning i en superdator som tuggar 3500kW. Dessutom kan den inte användas när FPS är relativt hög, för våra tensor cores är för långsamma just nu. Däremot behöver vi bara övertyga folk som inte jämför så noga att man faktiskt bibehåller kvalitén samtidigt som man ökar FPS.

Everything just works! (iallafall för 4 pers)

Visst verkar dessa personer finnas. Iallafall, nu ska vi inte vara så negativa. När kretsen blir snabbare, och de lägger till tyngre grafik i spelen så bör DLSS ändå ha en hyfsat konstant kostnad? Då kan t.ex Turing på 7nm (Ampere) ha ett bredare användningsområde (inte bara då man är under väldigt låg FPS), givet förstås att de lyckas behålla samma detaljer som ursprungsupplösningen. Det gäller förstås inte för Turing, utan för nästa generations grafikkort där tensor cores blir snabbare.

Jag hade gärna fått reda på hur lång tid det tar att träna upp modellen till spelen och hur många olika modeller det krävs (t.ex med eller utan DXR, olika bildförhållanden etc). Hur sker träningen? Hur väljer de frames att träna mot? Måste de ha en kamera som flyger genom spelet med många olika modeller/texturer? Är det som google streetview , baserat på "We’re also training DLSS on a larger cross section of the game". Varje gång de släpper en ny bana i BF V, så måste de träna modellen på den igen för att det ska fungera korrekt? Om vi har DLSS stöd till flera såna spel samtidigt och dessa arbeten tar lång tid, borde inte det vara svårt att stödja DLSS för flera spel samtidigt som har kontinuerliga uppdateringar och olika miljöer?

Jag kan inte minnas något tillfälle jag läst/hört att utvecklarna för Metro eller BF V använt sig av tensor cores. Undrar hur mycket prestanda de hade fått ut om de istället för att köra dem på en superdator hade anställt några personer att implementera intressantare saker såsom t.ex Mesh shading eller FP16 som hade gett inverkan både med och utan DXR och hade även fått samma omfång (Turing och framtida generationer) och de hade kunnat få minst lika bra prestanda som om de hade DLSS och bibehållen kvalité. Låter som win-win för mig. Eller varför kunde de inte satsa på att implementera andra typer av uppskalningsmetoder såsom checkerboarding?

Permalänk
Inofficiell ambassadör
Skrivet av marcusOCZ:

Nvidia snackar ju själva om att DLSS är en ersättare av traditionell AA och att det mest är menat för högre upplösningar såsom 1440p och 4k. Det jag säger är att i 4k behöver man inte AA alls, slå det helt av. .

Fast det där snacket hörde man ju om 1440p också: "i så hög upplösning behöver man inte AA". Är det på riktigt någon som fortfarande tror det för 1440p? Jag ser rejäl skillnad på med/utan AA iaf på min 3440x1440 skärm

Nu äger jag ingen 4K skärm. Men man får betänka att det är rejäl skillnad på en TV man sitter ett antal meter ifrån och en 27-32" datorskärm man sitter på en armlängds avstånd ifrån.

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Medlem

Hmmmm...?

Visa signatur

Acer 27" Predator XB271HU G-Sync 165Hz; AMD Ryzen 9 5900X, RTX 4090; MSI MEG X570 ACE; 32GB Corsair Vengeance @ 3400 MHz; 500 GB NVMe + 1000GB NVMe + 1000 GB SSD; Lian Li O11 ROG Edition; Custom loop EKWB, 360 PE+360 SE, Phanteks T30 + Noctua A12x25.

Permalänk
Medlem

Beror ju självklart på vilket spel. I WoW och Minecraft gör ju AA en sjujäkla skillnad bara för att sätta allt på spetsen, medans i The Division 2 gör det nästan noll skillnad på min 1440p.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Avstängd

Så dlss lär sig alltså med tiden ? Är det på en game by game basis ? För isåfall fungerar dlss lagom tills nästa spel i serien är släppt å deras AI får börja om vilket betyder att dlss alltid kommer vara skit om så är fallet.

Skickades från m.sweclockers.com

Visa signatur

Alldeles för svag för SFF 🥰

Permalänk
Medlem
Skrivet av lnd1437:

Så dlss lär sig alltså med tiden ? Är det på en game by game basis ? För isåfall fungerar dlss lagom tills nästa spel i serien är släppt å deras AI får börja om vilket betyder att dlss alltid kommer vara skit om så är fallet.

Skickades från m.sweclockers.com

Man kan ju börja köra budget-gaming! Vänta 2-3 år med alla spelköp! Då lär ju första rtx-serien vara sjukt billig också

Permalänk
Medlem

@MarkSix: Håller helt med dig. Det verkar vara inne att hata Nvidia, känns som folk klagar på allt de gör nu för tiden. T.ex. inte ens att 1660Ti ser ut att kosta runt 3000 är något positivt tydligen.

Håller med om att det finns mer jobb att göra på DLSS för att få upp bildkvalitén, men tycker det är en lovande teknik och ray tracing gillar jag verkligen. Man får alltid räkna med barnsjukdomar med nya tekniker så har det ju ofta varit förr dessutom!

Tycker folk bör åtminstone försöka vara lite positiva istället, tänk om marknaden hade stått helt still och ingen hade velat utveckla något nytt alls, hur kul hade det varit?

Visa signatur

Mobo: Asus X470 Crosshair VII Hero *** CPU: AMD Ryzen 7 2700X *** RAM: 32Gb G.Skill TridentZ 2933Mhz *** PSU: Seasonic 850W Focus+ Platinum *** GPU: Gigabyte RTX2080 Gaming OC *** SSD: Samsung 860 EVO 2 TB *** Chassi: Fractal Design Define R6 TG Svart *** Tangentbord: Ducky One 3 Daybreak MX Clear *** Mus: Logitech Pro X Superlight *** Skärm: Alienware AW3821DW

Permalänk
Medlem
Skrivet av marcusOCZ:

Nvidia snackar ju själva om att DLSS är en ersättare av traditionell AA och att det mest är menat för högre upplösningar såsom 1440p och 4k. Det jag säger är att i 4k behöver man inte AA alls, slå det helt av. Vad skulle DLSS ersätta då? Det enda du får just nu i alla fall, är -3 på bägge ögonen.

Det är meningen att du skall få högre fps i 4k. Du kör spelet i 1440P och dlss skalar upp det till 4K (IT JUST WORKS) Men på det jag sett tycker jag det även blir sämre så jag kör hellre Native 4K utan nån jävla aa alls.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Hjälpsam

Man kan inte sminka en gris.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Man kan inte sminka en gris.

Man kan, men folk ser att det fortfarande är en gris.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Hjälpsam
Skrivet av MinscS2:

Man kan, men folk ser att det fortfarande är en gris.

Det är sant.

Dold text
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Frux:

Finns utrymme för förbättringar av DLSS helt klart. Jag provade att slå på det men om man kollar noga så försvinner det en hel del skärpa i texturer och så.

https://i.imgur.com/E5mjEQJ.jpg

Läste ditt inlägg för ca 5 minuter sen, fnittrar fortfarande

Permalänk
Medlem
Skrivet av inquam:

Också funderat på detta. Gjort lite maskinlärning på oplika saker och beroende på träningsdatan så har jag haft modeller som är allt från 20-30MB till 1GB+. Det för varje spel som stödjer DLSS kan nog bloata drivrutinspaketen rätt bra.

Jo precis vad jag funderade på. om några år så lär det ju bli ganska många. mja,, om det nu inte floppar helt, vilket iofs ser ut att vara en möjlighet.