Nvidia DLSS – vad är det egentligen?

Trädvy Permalänk
Dalek
Registrerad
Dec 1999

Nvidia DLSS – vad är det egentligen?

Kantutjämning, bättre bildkvalitet och ökad prestanda i samma paket låter onekligen för bra för att vara sant. Vi gräver ned oss i och förklarar Nvidias uppskalningsteknik DLSS.

Läs hela artikeln här

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Trädvy Permalänk
Medlem
Registrerad
Aug 2009

En väldigt avslappnad och bra förklaring. Tack!

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Mar 2011

Tack så mycket. Har undrat hur tekniken faktiskt fungerar.

En sak jag tänker på med DLSS överlag är: Ser DLSS och 4k bättre ut än ingen DLSS och till exempel 2560x1440? För snacket är hela tiden att "4k DLSS ser sämre ut än vanlig 4K utan DLSS". Men poängen är ju, precis som Jonas säger i videon, att DLSS gör att jag kanske kan köra 4k när jag annars inte hade haft möjligheten att göra det över huvud taget innan?

För om en 4k med DLSS ger en bättre upplevelse än 2560x1440 utan DLSS, och det dessutom kan förbättras med tiden så ja, varför inte?

Intressant i alla fall. Jag ser DLSS-tekniken som ett sätt att förlänga livslängden på min GPU. Använder jag det så gör jag antagligen det när prestandan inte räcker till längre.

Gaming: RTX 2070 & 3770k
Studier: MacBook pro retina 13
Ljud: QH-1339 & ett par rackans smidiga AirPods
Telefon: iPhone 6s plus

Trädvy Permalänk
Medlem
Plats
Hudiksvall (Forsa)
Registrerad
Sep 2003

gött ska fixa frukost och kika på två goa killar och bli uppskolad ...

Låda Phobya UltraBig Watercase V.1 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm radiatorer Minne4 X 8Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik AORUS GeForce® GTX 1080 Ti Waterforce WB Xtreme Edition 11G AGG Corsair RM 1000w 80+ Gold Skärm Benq XR3501 AMVA 35" Curved

Trädvy Permalänk
Medlem
Plats
Örebro
Registrerad
Aug 2005

DLSS snacka om onödig teknik. Man kan köra 1800K istället på en 4K skärm och få ungefär likvärdig bild eller bättre bild med ungefär likvärdig prestanda så vad ska man med DLSS till?

Nuvarande dator: CPU: Core i5 2500K @ 3.7GHz, CPU kylare: Zalman CNPS12X, GPU: Zotac GTX560Ti 2048MB, Moderkort: ASRock Z68 Extreme 3 Gen3, Minne: Corsair Vengeance LP 1600MHz (4X4GB)16GB Kit, Lagring: Samsung 840 EVO 250GB SSD, Western Digital Caviar Black 64MB Cache 1TB, Seagate Barracuda 256MB cache 2TB, Seagate Barrracuda 256MB cache 4TB Optisk läsare: DVD Brännare Sony Optiarc AD-7280S, Ljudkort: Asus Xonar DG, Chassi: HafX 942 Nvidia Edition, Nätaggregat: Corsair TX650 v1 650 Watt, OS Windows 10 Pro Svensk Version

Trädvy Permalänk
Medlem
Plats
Nol
Registrerad
Mar 2010
Skrivet av Jygge:

gött ska fixa frukost och kika på två goa killar och bli uppskolad ...

Frukost kl 13:24 😁 Du är en rolig prick du.

Skrivet av Joakim Ågren:

DLSS snacka om onödig teknik. Man kan köra 1800K istället på en 4K skärm och få ungefär likvärdig bild eller bättre bild med ungefär likvärdig prestanda så vad ska man med DLSS till?

Mycket tveksam till 1800K 😉

Förlår för of topic.

Trädvy Permalänk
Medlem
Plats
Norrköping
Registrerad
Jul 2006

Tycker att det är konstigt att de har super sampling i namnet då tekniken liknar mer sub sampling + "ai upscaling".

R5-1600X, GA-AB-350M-G3, 16GB DDR4 @ 2666, RX580 8GB, Corsair CX650M Rev2

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jan 2007

Nostalginerven går på högvarv med Emil och Jonas i rutan!

Skickades från m.sweclockers.com

Intel I5 9400F | GTX 1660 TI | ASUS PRIME Z390-P | Corsair 16GB DDR4 | Intel 660P 512GB | AOC C24G1 | Asus ZenBook S UX391 | OnePlus 6T | Xbox One X |

Trädvy Permalänk
Medlem
Plats
Falun
Registrerad
Feb 2010

SLSS

Slow Learning Super Sampling.

PC - Lian Li Alpha 550X - MSI X99A GODLIKE Gaming - i7 6850K 4.0Ghz + Alphacool Eisbaer 420mm - 32GB RAM - Gigabyte RTX 2080 OC - Asus Essence STX II + Pioneer HRM-5 - 1TB Samsung 970 EVO M.2 - Samsung 860 1TB + Samsung 830 512GB - 12TB HD - EVGA SuperNOVA G2 750W

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Feb 2010

Kan ni benchmarka world war Z?

Dator: Clevo p370em 680m sli Dell xps m1730 8800gtx (såld) Alienware m17x r2 5870m (såld) Msi gx660r 5870m (såld), Alienware M18x R2 7970m cf (såld)
Konsoll: Ps3 ca 100 spel på hårddisken. Ca 60 spel på skiva. 15 platinum och 1300+ trophies
Ljud:: Reciever: Yamaha RX-V771, Front: Blue Diamond: Rear: Black Ruby Cent: Black Ruby C

Trädvy Permalänk
Inofficiell ambassadör
Plats
Gävle
Registrerad
Jan 2011

Perfekt nivå och balans mellan djuplodande information och förenklingar! Mycket bra video!

@JonasT Som jag förstår DLSS på er så:
1. Man renderar spelet i 1080p och
2. skalar sedan upp bilden till skärmens native upplösning - säg 1440p.

För att därmed kunna spela i "1440p" men i samma prestanda som i 1080p.
D.v.s. man försöker sänka prestandakostnaden för likvärdig bildkvalitet.

Skulle man inte kunna göra "åt andra hållet" för att ersätta Super sampling?

T.ex
1. Rendera spelet i 1440p (samma som skärmens Native)
2. Använda DLSS för att skala upp spelet till 4K
3. Sampla det producerade "4K" materialet till 1440p som är min skärms native upplösning?

D.v.s. man försöker höja bildkvaliteten men till samma prestandakostnad?

Eller ställer det här till det på sätt som jag inte förstår mig på?

Mobo MSI Z97 Gaming 5 CPU Intel i7 4790k: 4,6 Ghz @ 1,26v RAM Corsair Vengange Pro 16GB @ 2400MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Trädvy Permalänk
Medlem
Registrerad
Aug 2005
Skrivet av Xyborg:

Skulle man inte kunna göra "åt andra hållet" för att ersätta Super sampling?

T.ex
1. Rendera spelet i 1440p (samma som skärmens Native)
2. Använda DLSS för att skala upp spelet till 4K
3. Sampla det producerade "4K" materialet till 1440p som är min skärms native upplösning?

D.v.s. man försöker höja bildkvaliteten men till samma prestandakostnad?

Eller ställer det här till det på sätt som jag inte förstår mig på?

Man skulle absolut kunna göra det i teorin men frågan är om det skulle ge så mycket, eller om det skulle vara bättre att bara köra på någon lika billig AA. Som nämns i videon beror det nog väldigt mycket på. Är resultatet från DLSS-uppskalningen ganska suddigt kommer det inte tillföra speciellt mycket att supersampla från den.

Trädvy Permalänk
Häxmästare ✨
Jonas Thörnqvist
Plats
Stockholm
Registrerad
Apr 2002
Skrivet av Xyborg:

Perfekt nivå och balans mellan djuplodande information och förenklingar! Mycket bra video!

@JonasT Som jag förstår DLSS på er så:
1. Man renderar spelet i 1080p och
2. skalar sedan upp bilden till skärmens native upplösning - säg 1440p.

För att därmed kunna spela i "1440p" men i samma prestanda som i 1080p.
D.v.s. man försöker sänka prestandakostnaden för likvärdig bildkvalitet.

Skulle man inte kunna göra "åt andra hållet" för att ersätta Super sampling?

T.ex
1. Rendera spelet i 1440p (samma som skärmens Native)
2. Använda DLSS för att skala upp spelet till 4K
3. Sampla det producerade "4K" materialet till 1440p som är min skärms native upplösning?

D.v.s. man försöker höja bildkvaliteten men till samma prestandakostnad?

Eller ställer det här till det på sätt som jag inte förstår mig på?

Kul att du gillade genomgången!

Faktum är att Nvidia har ett läge som heter DLSS 2x vilket gör exakt det du efterfrågar, det vill säga renderar i samma upplösning som skärmen och försöker fylla i information ovanpå det för högre bildkvalitet. Än så länge har jag dock inte sett den implementationen i något spel.

Trädvy Permalänk
Bosmang 🤷
Emil Åkered
Plats
Stockholm
Registrerad
Jan 2003

Är det nu vi ska avslöja att videon är andra tagningen? Första gången blev ljudet helt kass, så jag och @JonasT fick bita i det sura och göra om allt några dagar senare..

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-8400 - Z370M-ITX/ac - GTX 1070 - 16 GB DDR4
▪ Nöje #2 -> R5 2600X - Asus B450 - GTX 1080 Ti - 16 GB DDR4
▪ Mobilt -> Surface Pro 4 - m3-6Y30 - 4 GB DDR3
▪ Konsol -> Playstation 4 Pro - Playstation Vita

Trädvy Permalänk
Medlem
Registrerad
Mar 2012

Jag är inget fan av AI rendering. Hade det inte varit bättre utan DLSS? mer Cuda Cores hade och RT cores hade ju gett bättre prestanda än med DLSS? just nu sitter dem där och tar upp 1/3 av chippets storlek för ingenting?

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/bench/kf0pzs/1
Radeon Vega64.

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Feb 2010

@emilakered: @JonasT

Kommer det någon benchmark på World War Z?

Dator: Clevo p370em 680m sli Dell xps m1730 8800gtx (såld) Alienware m17x r2 5870m (såld) Msi gx660r 5870m (såld), Alienware M18x R2 7970m cf (såld)
Konsoll: Ps3 ca 100 spel på hårddisken. Ca 60 spel på skiva. 15 platinum och 1300+ trophies
Ljud:: Reciever: Yamaha RX-V771, Front: Blue Diamond: Rear: Black Ruby Cent: Black Ruby C

Trädvy Permalänk
Bosmang 🤷
Emil Åkered
Plats
Stockholm
Registrerad
Jan 2003
Skrivet av Jonathanknet:

@emilakered: @JonasT

Kommer det någon benchmark på World War Z?

Är inte helt säker på vad det har i just den här tråden att göra, men vad jag vet är det inget på gång. Är väl om @Kenneth smyger med test som ingen vet i så fall.

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-8400 - Z370M-ITX/ac - GTX 1070 - 16 GB DDR4
▪ Nöje #2 -> R5 2600X - Asus B450 - GTX 1080 Ti - 16 GB DDR4
▪ Mobilt -> Surface Pro 4 - m3-6Y30 - 4 GB DDR3
▪ Konsol -> Playstation 4 Pro - Playstation Vita

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Jan 2007
Skrivet av emilakered:

Är det nu vi ska avslöja att videon är andra tagningen? Första gången blev ljudet helt kass, så jag och @JonasT fick bita i det sura och göra om allt några dagar senare..

Det tackar vi för!

Skickades från m.sweclockers.com

Intel I5 9400F | GTX 1660 TI | ASUS PRIME Z390-P | Corsair 16GB DDR4 | Intel 660P 512GB | AOC C24G1 | Asus ZenBook S UX391 | OnePlus 6T | Xbox One X |

Trädvy Permalänk
Medlem
Registrerad
Nov 2004
Skrivet av Xyborg:

Perfekt nivå och balans mellan djuplodande information och förenklingar! Mycket bra video!

@JonasT Som jag förstår DLSS på er så:
1. Man renderar spelet i 1080p och
2. skalar sedan upp bilden till skärmens native upplösning - säg 1440p.

För att därmed kunna spela i "1440p" men i samma prestanda som i 1080p.
D.v.s. man försöker sänka prestandakostnaden för likvärdig bildkvalitet.

Skulle man inte kunna göra "åt andra hållet" för att ersätta Super sampling?

T.ex
1. Rendera spelet i 1440p (samma som skärmens Native)
2. Använda DLSS för att skala upp spelet till 4K
3. Sampla det producerade "4K" materialet till 1440p som är min skärms native upplösning?

D.v.s. man försöker höja bildkvaliteten men till samma prestandakostnad?

Eller ställer det här till det på sätt som jag inte förstår mig på?

Det borde vara möjligt att testa detta med nvidia DSR; slå på DSR i en faktor som ger dig en upplösning som tillåter DLSS (tex. x4 med 0% smoothness i 1080p ger dig 4k, eller 2.25 faktor i 1440p), enabla DLSS, se hur det går..

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011

Helt sant att DLSS inte är någon form av kantutjämning, men det är en form av "anti-aliasing"! Ordet "kantutjämning" är en rätt dålig översättning av "anti-aliasing", det förra löser bara en väldigt specifik variant av "aliasing"!

Att man jämför med TAA gissar jag beror på att DLSS råkar utföra den typ av "anti-aliasing" som är största mervärdet med TAA (det nr DLSS är rätt implementerat, såg inte så bra ut i FFXV...).

Man får ju alltid olika former av kvantiserings-artifakter i 3D-motorer. Dels ska ju allt passa in i det rutnät pixels utgörs på skärmen. Dels finns ju andra problem som detaljnivåer i texturer som ska läggas ut på en transformerad yta som i slutändan ska skohornas in pixlar.

Ytor med texturer som har skarpa kontraster får ofta rätt irriterande "krypningar" (syns väldigt väl i Neverwininter videon här), just den artefakten går inte att lösa med högre upplösning utan det krävs TAA (som hanterar problemet genom att öka "samplingsfrekvensen" i bilden genom att ta hänsyn till tidigare scener, gissningsvis har även DLSS något sådant element. TAA har "super-sampling" på tidsaxeln, inte på X/Y-pixel-axeln).

Slutligen "tränas" väl modellen som används av DLSS på referensscener som är renderande med FSAA x64? Namnet "Deep Learning Super Sampling" blir då i någon mån tekniskt korrekt, man tränar ett "deep learning" nätverk på kraftigt (upplösningsmässigt) super-samplade referensbilder.

Den bild som renderas på din dator är dock inte upplösningsmässigt super-samplad, den har däremot en annan form "super-sampling" från det neurala nätverket och dess associerade data. "Super-samplingen" möjliggör att man renderar i t.ex. 1920x1080, men visar en bild i t.ex. 2560x1440 som är mer korrekt jämfört med ren uppskalning. Så super-samplingen är i relation till 1920x1080 bilden!

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Registrerad
Nov 2004

@Yoshman: Jag tror man jämför med TAA för att DLSS är designat att köras ihop med TAA.
I tex bfv kan du inte slå av TAA om du slår på DLSS.
I anthem, som är det enda spel jag vet som stödjer enbart DLSS utan raytracing, så ser DLSS helt för jävligt ut utan TAA på även om det faktiskt är möjligt att stänga av det (samma motor, så jag förstår varför bfv låser TAA option med DLSS på).

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Sep 2006

"Skissa-och-gissa-teknik" var ett helt klockrent namn på det

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av JBE:

@Yoshman: Jag tror man jämför med TAA för att DLSS är designat att köras ihop med TAA.
I tex bfv kan du inte slå av TAA om du slår på DLSS.
I anthem, som är det enda spel jag vet som stödjer enbart DLSS utan raytracing, så ser DLSS helt för jävligt ut utan TAA på även om det faktiskt är möjligt att stänga av det (samma motor, så jag förstår varför bfv låser TAA option med DLSS på).

Algoritmen för DLSS är ju inte känd, men givet att den i grunden bygger på maskininlärning går det att göra hyfsade gissningar. Var lite här jag gick bet för kunde inte riktigt få ihop vad DLSS och TAA rimligen kan ha gemensamt (mer än att båda är en variant på super-sampling). Det du skriver blir då väldigt vettigt: d.v.s. teknikerna är mer komplement till varandra.

Så att DLSS mer eller mindre behöver TAA låter helt rimligt i mina öron. Om FFXV saknar TAA när man kör DLSS skulle det också kunna förklara vissa artefakter. Artefakter som TAA borde kunna eliminera eller i alla fall rejält minska (flimrande staket och elledningar t.ex.).

Den kvarvarande frågan blir då varför Nvidia pratar om DLSS och TAA som om de på något sätt är jämförbara...

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Registrerad
Nov 2004
Skrivet av Yoshman:

Algoritmen för DLSS är ju inte känd, men givet att den i grunden bygger på maskininlärning går det att göra hyfsade gissningar. Var lite här jag gick bet för kunde inte riktigt få ihop vad DLSS och TAA rimligen kan ha gemensamt (mer än att båda är en variant på super-sampling). Det du skriver blir då väldigt vettigt: d.v.s. teknikerna är mer komplement till varandra.

Så att DLSS mer eller mindre behöver TAA låter helt rimligt i mina öron. Om FFXV saknar TAA när man kör DLSS skulle det också kunna förklara vissa artefakter. Artefakter som TAA borde kunna eliminera eller i alla fall rejält minska (flimrande staket och elledningar t.ex.).

Den kvarvarande frågan blir då varför Nvidia pratar om DLSS och TAA som om de på något sätt är jämförbara...

Hur DLSS är implementerat i verkligheten verkar inte direkt matcha vad nvidia hade tänkt sih från början, de har ett whitepaper på det här:
https://www.nvidia.com/content/dam/en-zz/Solutions/design-vis...

I det står det i princip att DLSS gör ca samma sak som TAA fast billigare i prestandakostnad och bättre.
"The deep neural network (DNN) that was developed to solve this challenge is called Deep Learning Super-Sampling (DLSS). DLSS produces a much higher quality output than TAA from a given set of input samples, and we leverage this capability to improve overall performance. Whereas TAA renders at the final target resolution and then combines frames, subtracting detail, DLSS allows faster rendering at a lower input sample count, and then infers a result that at target resolution is similar quality to the TAA result, but with roughly half the shading work.Figure 22, shows a sampling of results on the UE4 Infiltrator demo. DLSS provides image quality that is similar to TAA, with much improved performance. The much faster raw rendering horsepower of RTX 2080 Ti, combined with the performance uplift from DLSS and Tensor Cores, enables RTX 2080 Ti to achieve 2x the performance of GTX 1080 Ti."

Där verkar de diskutera DLSS vs TAA på samma källmaterial, vilket inte existerar i något hittils släppt spel, men detta är väl kanske orsaken att de vill jämföra DLSS vs TAA som en ren form av AA.

Kanske är det sant att det ger mycket högre kvalitet till lägre kostnad, så bra att de bestämde sig att istället köra uppskalning med det och ja, det fungerar ju dugligt.

Loggade in i anthem för att se, och det går inte längre att välja AA manuellt om man slår på DLSS. Det gick i patchen som introducerade stöd för det.

Jag tycker kanske vissa saker på avstånd ser sämre ut, men saker som är nära ser perfekt ut.
Här är någon som orkat göra en jämförelesevideo: https://youtu.be/COOlVBDy8cA

Trädvy Permalänk
Medlem
Plats
Skövde
Registrerad
Maj 2007

@Yoshman:
@JBE:
Fast det stora problemet med DLSS är att det har gjorts tester med DLSS vs gammal hederlig uppskalning där man kalibrerar den vanliga uppskalningens källupplösning tills man uppnår samma frame-rate som med DLSS. Slutsatsen var att den gamla hederliga uppskalningen såg MYCKET bättre ut når det kalibrerats till samma prestanda. Jensen sålde in det som nästa grej efter skivat bröd, men än så länge är den en försämring mot vad vi redan hade.

Förtydligande exempel:
Om du har en scen som ligger på ca 60fps med 4K DLSS, och jämför bildkvalitén mot samma scen med vanlig uppskalning som också ger 60fps så är den vanliga uppskalningens bildkvalité i en helt annan liga. Det är i dagsläget inte en kamp utan en total utklassning där man omedelbart kan se vilken bild som har flest detaljer bevarade och minimalt med artefakter.

Så den verkliga frågan är, hur många månader eller år kommer det ta innan DLSS blir bra nog att den ger samma kvalité och prestanda som en simpel teknik vi redan haft i åratal och som alla grafikkort på marknaden redan stödjer? För i dagsläget har DLSS ett sämre bildkvalité till frame-time förhållande, dvs. i alla situationer där du i dagsläget kan välja mellan vanlig uppskalning eller DLSS så är det en försämrad upplevelse att välja DLSS.

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Trädvy Permalänk
Medlem
Registrerad
Nov 2004

@dpom86: Det enda spelet som stödjer ren DLSS är vad jag vet anthem, och i det ser DLSS mycket bättre ut än att köra 1440p skalat i 4k.
(se video ovan).

Jag är medveten om de jämförelser som gjorts, men alla (?) de var med raytracing+dlss, och fokus var mer på att jämföra stillbilder än helheten. helheten blir ju väldigt subjektiv och stillbilder blir inte helt relevant så jag tycker det är svårt att säga att den saken är avgjord saken åt ena eller andra sidan.

Jag testade själv att spela bfv story missions med och utan dlss+rtx och tyckte det såg extremt bra ut i dlss 4k hdr i praktiken, med bra nog fps. Med bara 4k och rtx var ju fps alldeles för låg. Testade faktiskt aldrig att skala 1440p, iom dlss+4k+ultra+hdr såg så otroligt bra ut.

Trädvy Permalänk
Medlem
Registrerad
Okt 2018
Skrivet av JBE:

@dpom86: Det enda spelet som stödjer ren DLSS är vad jag vet anthem, och i det ser DLSS mycket bättre ut än att köra 1440p skalat i 4k.
(se video ovan).

Jag är medveten om de jämförelser som gjorts, men alla (?) de var med raytracing+dlss, och fokus var mer på att jämföra stillbilder än helheten. helheten blir ju väldigt subjektiv och stillbilder blir inte helt relevant så jag tycker det är svårt att säga att den saken är avgjord saken åt ena eller andra sidan.

Jag testade själv att spela bfv story missions med och utan dlss+rtx och tyckte det såg extremt bra ut i dlss 4k hdr i praktiken, med bra nog fps. Med bara 4k och rtx var ju fps alldeles för låg. Testade faktiskt aldrig att skala 1440p, iom dlss+4k+ultra+hdr såg så otroligt bra ut.

vad tycker du om HDR är input lagen något du märker av i ett first person shooter?

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Trädvy Permalänk
Medlem
Registrerad
Nov 2004
Skrivet av Oskar80:

vad tycker du om HDR är input lagen något du märker av i ett first person shooter?

Det är ingen input lag i hdr för mig, men det beror väl på vilken tv/monitor man kör på (pg27uq).

Trädvy Permalänk
Medlem
Registrerad
Okt 2018
Skrivet av JBE:

Det är ingen input lag i hdr för mig, men det beror väl på vilken tv/monitor man kör på (pg27uq).

har samma panel. jag kanse är rätt känslig för input lag jag
jag har stängt av HDR i BF5 då jag märker tydlig skillnad.
testa att köra utan och med HDR och kolla om du spelar bättre.

I det senaste call of duty har dom en mätare för input lag i ms
har för mig att utan HDR var det typ runt 10ms och med hdr 40-50ms
i det spelet var det riktigt hemskt att spela med HDR.
jag kör bara med HDR i singel player spel då stör jag mig princip inte alls på det.
Hitman 2, Tomb raider, Assasins Creed odyssey mm

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Trädvy Permalänk
Medlem
Registrerad
Mar 2017
Skrivet av _Merc_:

Jag är inget fan av AI rendering. Hade det inte varit bättre utan DLSS? mer Cuda Cores hade och RT cores hade ju gett bättre prestanda än med DLSS? just nu sitter dem där och tar upp 1/3 av chippets storlek för ingenting?

Källa för att de tar upp 1/3? Det enda jag hört från mätningar är att de tar upp ~10% , borträknat ökad storlek på ALUs, schemaläggare och cache.

Skrivet av Yoshman:

Algoritmen för DLSS är ju inte känd, men givet att den i grunden bygger på maskininlärning går det att göra hyfsade gissningar.

Den är inte känd, nej. Men de presenterade en algoritm i directML för maskininlärd uppskalning innan de annonserade DLSS. Detta är sannolikt samma modell som används i DLSS.

Slides som beskriver hur den utförs

Frågan som jag funderar på är om DLSS är om det är värt det i slutändan. Hur menar jag då?
1. Kostnaden att driva superdatorn för att träna modellen uppgick approximativt till ett flertal heltidsanställda (kommer inte ihåg exakt hur många) . Dessa anställda kunde istället gå ut på uppdrag för att implementera prestandaförbättringar i spelmotorn istället.
2. För DLSS måste modellerna tränas om för varje nytt spel,ny karta, nytt DLC, men förbättringarna i spelmotorn består (eller är iallafall åtminstone lättillgängliga).
3. Förbättringar i spelmotorn kan även hjälpa andra användare än just de från samma företag. Vill dock tillägga att om det implementeras i directML så bör modellen kunna återanvändas för AMD med.

Men visst, om målet är för NVIDIA att få bättre relativ prestanda än AMD så är DLSS ett hyfsat bra alternativ. De skulle dock kunna implementera andra saker som är t.ex specifikt för Turing såsom mesh shaders för att förbättra prestandan.

Ett exempel för 1. När AMD hjälpte till med RE Engine så kunde de förbättra prestandan med ~30%. För 3 så verkar AMD även arbeta med en ML upscaler.

Diverse slides