Nvidia berättar hur bolaget förbättrar uppskalningstekniken DLSS

Trädvy Permalänk
Medlem
Plats
Umeå
Registrerad
Nov 2003

Adobe ringde och vill ha ersättning för användandet av gausian blur.

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Plats
Ystad
Registrerad
Jan 2012

Ahh, DLSS-memes.
Bästa hårdvaru(eller mjukvaru?)-relaterade memen jag sett på länge.

Nvidia har blivit en riktig meme-fabrik på sistonde, ivrigt påhejad av "Jensen" själv.
Meme-tracing, it just works! Gigamemes!

Om slutpriset på GTX 1660 Ti hamnar på över 3200:- i svenska butiker lär den också bli en meme.
Finns ingen vettig anledning att inte lägga till en femhundring för RTX 2060.

CPU: i7-8700k @ 5 GHz + Noctua NH-U14S || GPU: Palit RTX 2080 Ti GamingPro OC.
MoBo: Asus Rog Strix Z370-F Gaming || RAM 16 GB G.Skill Trident Z RGB 3200 MHz.
PSU: Seasonic Focus+ 850W Gold || Chassi: Corsair Crystal 460X + 6st Corsair LL120.
Lagring: Samsung 830(128 GB), Samsung 860 EVO(500GB) Crucial MX300(525 GB).
Skärmar: Acer Predator XB271HU + Samsung C27F396 || OS: Win 10 Pro N.

Trädvy Permalänk
Medlem
Plats
Oskarshamn
Registrerad
Maj 2013
Skrivet av marcusOCZ:

Vem med vettet i behåll har AA över huvud taget när dom spelar i 4k? Det behövs ju inte. I alla fall på upp till 32" skärmar. Kanske 40" och uppåt, men då sitter man väl längre undan så det jämnar ut sig (nu pun intended)

Och 4K med raytracing på..jo tjena. Nästa bild tack.

Snackar du om DLSS nu eller? För det är ingen AA teknik tekniskt sett. Det handlar om uppskalning. Dvs du har spelet inställt på 4K men det renderas lägre och så ska DLSS sköta denna uppskalningen till 4K.

Dvs själva grejen med DLSS är ju att man ska kunna köra RT och 4K samtidigt istället för 1080p eller 1440p pga denna uppskalning....som fungerar "sådär" än så länge.

Skickades från m.sweclockers.com

Chassi: Fractal Design Define R4 | MB: ASRock Z77 Extreme 4 | CPU: Intel Core i7 3770K@4.2Ghz | Kylare: Noctua NH-U9B | RAM: 8GB Team Elite DDR3 1600Mhz | GPU: Palit GTX 1080 Ti Super Jetstream | PSU: EVGA Supernova G2 750W | TGB: Corsair K70 RGB | Mus: Logitech G502 | Ljud: Sony MDR-1A+Antlion Modmic 4.0

Trädvy Permalänk
Medlem
Registrerad
Feb 2016

@MarkSix: Varför skulle man lyssna på någon som "svarar" på kritik när de ljugit hejdlöst från början om teknikens förträfflighet?

Trädvy Permalänk
Medlem
Registrerad
Dec 2015
Skrivet av Söderbäck:

Hmm. Kan det röra sig om ett missförstånd här kanske? Nvidias servrar är inte inblandade när kör något på din dator. Det man använder serverparkerna till är att i förtid ta fram bildmaterial som kan stoppas in för att förbättra bildkvalitén för lägre upplösningar. Nvidia kör alltså sina servrar på högvarv innan spelet ens släpps och det är inte kopplat till vad du gör på datorn.

Det låter som om NVIDIA vill knyta speltillverkare hårdare till sig och sälja licenser eller servertid. Snackar man inte pengar med dem får man inte deras balla ”AI”-funktioner i sitt spel. Gissa vilken hårdvara man behöver för att kunna köra träningen.

Trädvy Permalänk
Medlem
Plats
Sundsvall
Registrerad
Okt 2003
Skrivet av Beinerfelt:

Fungerar det alltså så, att om man spelar i säg 1080p och slår på DLSS. Då sänkes upplösningen till något ännu lägre (fps ökar då), ... Eller har jag missat något?

Helt rätt, förutsatt att du har ett tillräckligt klent grafikkort med tensorkärnor. Med DLSS kan du då förvänta dig bildfrekvens på stundtals över 60 fps.
Är ditt grafikkort så kraftfullt att DLSS inte hänger med stängs funktionen av.

Skrivet av superapan:

Är det bara jag som tycker det är lite obehagligt att Nvidias serverparker ska lägga sig i när jag spelar? /foliehatt on

Skrivet av Söderbäck:

Det du sedan gör är att hämta hem det här paketet med servergenererat innehåll ...

Frågan är väl när/hur denna kommunikation sker. Det har jag inte sett någon redogörelse för.

Nvidia hävdar även att bildkvaliteten med DLSS (för ett givet spel) ökar över tid allteftersom deras AI lär sig arbeta med det. Så om något år ser BF5 med DLSS bättre ut än det gör i dag. Man kan nog även vända på steken och konstatera att titlar med stöd för DLSS alltid kommer se sämst ut (med DLSS aktiverat) när de är nya.

För övrigt anser jag att MS FlightSim X borde vara standard som ett av benchmarkprogrammen.

Trädvy Permalänk
Medlem
Plats
Kryptan/Lund
Registrerad
Nov 2004

@Olle_P

"Helt rätt, förutsatt att du har ett tillräckligt klent grafikkort med tensorkärnor. Med DLSS kan du då förvänta dig bildfrekvens på stundtals över 60 fps.
Är ditt grafikkort så kraftfullt att DLSS inte hänger med stängs funktionen av."

Så det är som funktionen vi hittar i en del spel på PC men mest på konsol? Du vet när upplösningen sänks för att hålla en viss fps. Fast tvärt om. Typ

CPU: I7 2600k @ 4.4ghz med Noctua NH-D14 GPU: GTX 1070 med Accelero Xtreme III @2 120mm cf-v12hp hydro dynamic @skitsnabbt. MODERKORT: Gigabyte GA-Z77X-UD3H. RAM: 16GB DDR3 PC19200/2400MHz@2133MHz. HÅRDDISK: Samsung 850 EVO 250GB SSD, Intel SSD 320 Series 160GB , 4 Mekaniska. MONITOR:1 Samsung S27A950D 3D" MONITOR:2 Samsung 2693HM 25,5" MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007

De har inte fixat DLSS på ett halvårs körningar, finns inget som talar för att de kommer att fixa det nu.

AMD Ryzen 7 1700 | Vega RX 64 | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W | Corsair 600T Graphite vit.
AMD FX8350 | Polaris RX 460 4 GB | https://valid.x86.fr/0q5pkm | Cooler Master V 700W | 32 GB ECC-Minnen.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Tullinge
Registrerad
Jun 2005

Folk har såna krav idag. Minns när man fick köra duke nukem 3d i 320*200 med detaljer på low, fan va fint det va. Minecraft är en ripoff på det spelet helt klart😁

Skickades från m.sweclockers.com

Ryzen 1700 @ 3.9ghz, Palit GTX 1080 GR Premium

Trädvy Permalänk
Medlem
Plats
Kryptan/Lund
Registrerad
Nov 2004
Skrivet av Ratatosk:

De har inte fixat DLSS på ett halvårs körningar, finns inget som talar för att de kommer att fixa det nu.

Ju mer en läser om det så verkar det faktiskt vara en död häst innan det ens börjat.
Jag har blandade känslor om det.

1. Jag gillar ny teknik. Fin bild på fler fps vill vi alla ha. Så kul om det funkat.

2. Om det måste köras på Nvidias servrar så innebär det... Ja vad innebär det för oss och dom som gör spelen?
Det är inte helt klargjort än. Så många scenarion det kan innebära.

CPU: I7 2600k @ 4.4ghz med Noctua NH-D14 GPU: GTX 1070 med Accelero Xtreme III @2 120mm cf-v12hp hydro dynamic @skitsnabbt. MODERKORT: Gigabyte GA-Z77X-UD3H. RAM: 16GB DDR3 PC19200/2400MHz@2133MHz. HÅRDDISK: Samsung 850 EVO 250GB SSD, Intel SSD 320 Series 160GB , 4 Mekaniska. MONITOR:1 Samsung S27A950D 3D" MONITOR:2 Samsung 2693HM 25,5" MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Trädvy Permalänk
Medlem
Plats
Karlskrona
Registrerad
Aug 2009
Skrivet av Lordsqueak:

Undrar lite lätt hur stora "källfilerna" för DLSS blir.

Också funderat på detta. Gjort lite maskinlärning på oplika saker och beroende på träningsdatan så har jag haft modeller som är allt från 20-30MB till 1GB+. Det för varje spel som stödjer DLSS kan nog bloata drivrutinspaketen rätt bra.

Asus Zenith Extreme | 32gb DDR4 3200MHZ CL14 | Threadripper 1950X | 1080Ti
Asus Z97 Pro Gamer | 32gb ram DDR3 2400MHz | i7 4790k | 2 x R9 390 - Barnen fått ta över
Asrock P67 Extreme4 rev3 | 16gb DDR3 2400MHz | i7 2600K | R9 290 - Barnen fått ta över
En massa bärbara, servrar, RPi's och andra boxar

Trädvy Permalänk
Medlem
Registrerad
Okt 2005
Skrivet av Ratatosk:

De har haft ett halvt år på sig.

Skrivet av Ratatosk:

De har inte fixat DLSS på ett halvårs körningar, finns inget som talar för att de kommer att fixa det nu.

Räckte det inte med ett inlägg eller?

Inte för att jag har några större förhoppningar på DLSS, gillar iof iden med HW-accelererad uppskalning/aa, dock känns det otroligt yxigt med denna machine learning approach om man måste kör titel för titel samt att det verkar uppenbarligen vara yxigt att implementera, dock så är väl ett halvår inte speciellt mycket i sammanhanget eller? Kan säga att det är rätt mycket tekniker som tagit mer än 6 månader att mogna...

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Skrivet av sKRUVARN:

Räckte det inte med ett inlägg eller?

Inte för att jag har några större förhoppningar på DLSS, gillar iof iden med HW-accelererad uppskalning/aa, dock känns det otroligt yxigt med denna machine learning approach om man måste kör titel för titel samt att det verkar uppenbarligen vara yxigt att implementera, dock så är väl ett halvår inte speciellt mycket i sammanhanget eller? Kan säga att det är rätt mycket tekniker som tagit mer än 6 månader att mogna...

Glömde bort mitt tidigare, de blev onekligen ganska lika varandra.
Raderat mitt första.

AMD Ryzen 7 1700 | Vega RX 64 | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W | Corsair 600T Graphite vit.
AMD FX8350 | Polaris RX 460 4 GB | https://valid.x86.fr/0q5pkm | Cooler Master V 700W | 32 GB ECC-Minnen.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Digital medborgare
Registrerad
Aug 2004

Tror aldrig att detta kommer att bli "good enough". När jag spelar FPS behöver jag kunna se motståndaren innan eller åtminstone på samma gång. Kan inte titta genom en tub vaselin och försöka gissa mig till om det är ett träd, en lastbil eller en fiende.

Skrivet av sKRUVARN:

Inte för att jag har några större förhoppningar på DLSS, gillar iof iden med HW-accelererad uppskalning/aa, dock känns det otroligt yxigt med denna machine learning approach om man måste kör titel för titel samt att det verkar uppenbarligen vara yxigt att implementera, dock så är väl ett halvår inte speciellt mycket i sammanhanget eller? Kan säga att det är rätt mycket tekniker som tagit mer än 6 månader att mogna...

Ja, på sex månader har DLSS mognat lika bra som en banan hade gjort på 6 månader.

Skrivet av Zemlan:

som fungerar "sådär" än så länge.

Om du byter ut "sådär" med "inte alls" så är jag med dig

gfårs 1070. 3570K. 16 Gigabong RAM. Server, NAS, pi, steamlink, casts, nätverkssladdar, sega master system, massor av faptops, mus med 17 knappar, öronproppar, strumpor av ren bomull med elastiskt band för att hålla dem uppe. 2 barn, 1 fru, 99 problem.

Trädvy Permalänk
Medlem
Plats
Trondheim, Norge
Registrerad
Feb 2005
Skrivet av Zemlan:

Snackar du om DLSS nu eller? För det är ingen AA teknik tekniskt sett. Det handlar om uppskalning. Dvs du har spelet inställt på 4K men det renderas lägre och så ska DLSS sköta denna uppskalningen till 4K.

Dvs själva grejen med DLSS är ju att man ska kunna köra RT och 4K samtidigt istället för 1080p eller 1440p pga denna uppskalning....som fungerar "sådär" än så länge.

Skickades från m.sweclockers.com

Nvidia snackar ju själva om att DLSS är en ersättare av traditionell AA och att det mest är menat för högre upplösningar såsom 1440p och 4k. Det jag säger är att i 4k behöver man inte AA alls, slå det helt av. Vad skulle DLSS ersätta då? Det enda du får just nu i alla fall, är -3 på bägge ögonen.

Ryzen 1700 @3750--2X8GB G.Skill 3600 @3333mhz-14-14-14-14-30-44--GTX 1080 med Corsair H105 plus Kraken adapter--EK Kylning på CPU-EVGA 850 G3--Handfull SSD

9900K@5.2--2X8GB G.Skill Ripjaws 3600 @ 4133 17-17-17-36--Gigabyte Windforce 2080 TI--Rog Strix Z390-F--Noctua NH-D15

-----------Twitch-------------

Trädvy Permalänk
Medlem
Registrerad
Mar 2017

"We built DLSS to leverage the Turing architecture’s Tensor Cores and to provide the largest benefit when GPU load is high."

Översättning: Vi hade hårdvaran som inte direkt var tänkt för gaming först utan för ML-marknaden. Därefter insåg vi att köra tensor cores sekventiellt inte skulle vara så passande i den vanliga grafik/compute pipelinen, då arbetet som utförs måste vara förhållandevis stort sett till exekveringstiden i vanliga fall. Vi kom på DLSS för att den tar både och reducerar arbetet som krävs i vanliga fall för grafik och compute, och använder sedan denna tid för DLSS. Problemet är bara det verkar kräva månadsvis (?) av träning i en superdator som tuggar 3500kW. Dessutom kan den inte användas när FPS är relativt hög, för våra tensor cores är för långsamma just nu. Däremot behöver vi bara övertyga folk som inte jämför så noga att man faktiskt bibehåller kvalitén samtidigt som man ökar FPS.

Everything just works! (iallafall för 4 pers)

Visst verkar dessa personer finnas. Iallafall, nu ska vi inte vara så negativa. När kretsen blir snabbare, och de lägger till tyngre grafik i spelen så bör DLSS ändå ha en hyfsat konstant kostnad? Då kan t.ex Turing på 7nm (Ampere) ha ett bredare användningsområde (inte bara då man är under väldigt låg FPS), givet förstås att de lyckas behålla samma detaljer som ursprungsupplösningen. Det gäller förstås inte för Turing, utan för nästa generations grafikkort där tensor cores blir snabbare.

Jag hade gärna fått reda på hur lång tid det tar att träna upp modellen till spelen och hur många olika modeller det krävs (t.ex med eller utan DXR, olika bildförhållanden etc). Hur sker träningen? Hur väljer de frames att träna mot? Måste de ha en kamera som flyger genom spelet med många olika modeller/texturer? Är det som google streetview , baserat på "We’re also training DLSS on a larger cross section of the game". Varje gång de släpper en ny bana i BF V, så måste de träna modellen på den igen för att det ska fungera korrekt? Om vi har DLSS stöd till flera såna spel samtidigt och dessa arbeten tar lång tid, borde inte det vara svårt att stödja DLSS för flera spel samtidigt som har kontinuerliga uppdateringar och olika miljöer?

Jag kan inte minnas något tillfälle jag läst/hört att utvecklarna för Metro eller BF V använt sig av tensor cores. Undrar hur mycket prestanda de hade fått ut om de istället för att köra dem på en superdator hade anställt några personer att implementera intressantare saker såsom t.ex Mesh shading eller FP16 som hade gett inverkan både med och utan DXR och hade även fått samma omfång (Turing och framtida generationer) och de hade kunnat få minst lika bra prestanda som om de hade DLSS och bibehållen kvalité. Låter som win-win för mig. Eller varför kunde de inte satsa på att implementera andra typer av uppskalningsmetoder såsom checkerboarding?

Trädvy Permalänk
Inofficiell ambassadör
Plats
Gävle
Registrerad
Jan 2011
Skrivet av marcusOCZ:

Nvidia snackar ju själva om att DLSS är en ersättare av traditionell AA och att det mest är menat för högre upplösningar såsom 1440p och 4k. Det jag säger är att i 4k behöver man inte AA alls, slå det helt av. .

Fast det där snacket hörde man ju om 1440p också: "i så hög upplösning behöver man inte AA". Är det på riktigt någon som fortfarande tror det för 1440p? Jag ser rejäl skillnad på med/utan AA iaf på min 3440x1440 skärm

Nu äger jag ingen 4K skärm. Men man får betänka att det är rejäl skillnad på en TV man sitter ett antal meter ifrån och en 27-32" datorskärm man sitter på en armlängds avstånd ifrån.

Mobo MSI Z97 Gaming 5 CPU Intel i7 4790k: 4,6 Ghz @ 1,26v RAM Corsair Vengange Pro 16GB @ 2400MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Feb 2018

Hmmmm...?

Acer 27" Predator XB271HU G-Sync 165Hz; i7 8700k @ 5,1 GHz, 1,325V; GeForce GTX 1080Ti @2075 MHz; ASRock Extreme 4 Z370; 32GB Corsair Vengeance @ 3333 MHz; 500 GB NVMe +1000 GB SSD; Lian Li O11 ROG Edition; Custom loop EKWB, 360 PE+360 SE

Trädvy Permalänk
Medlem
Plats
Trondheim, Norge
Registrerad
Feb 2005

Beror ju självklart på vilket spel. I WoW och Minecraft gör ju AA en sjujäkla skillnad bara för att sätta allt på spetsen, medans i The Division 2 gör det nästan noll skillnad på min 1440p.

Ryzen 1700 @3750--2X8GB G.Skill 3600 @3333mhz-14-14-14-14-30-44--GTX 1080 med Corsair H105 plus Kraken adapter--EK Kylning på CPU-EVGA 850 G3--Handfull SSD

9900K@5.2--2X8GB G.Skill Ripjaws 3600 @ 4133 17-17-17-36--Gigabyte Windforce 2080 TI--Rog Strix Z390-F--Noctua NH-D15

-----------Twitch-------------

Trädvy Permalänk
Medlem
Plats
Åtvidaberg
Registrerad
Sep 2017

Så dlss lär sig alltså med tiden ? Är det på en game by game basis ? För isåfall fungerar dlss lagom tills nästa spel i serien är släppt å deras AI får börja om vilket betyder att dlss alltid kommer vara skit om så är fallet.

Skickades från m.sweclockers.com

Msi M Arctic | Ryzen 5 1600x | Vega 56 | 32GB Trident Z
Strix z370-i | i5 8600k | Zotac 1070 | 16gb Predator Rgb

Trädvy Permalänk
Medlem
Registrerad
Sep 2015
Skrivet av lnd1437:

Så dlss lär sig alltså med tiden ? Är det på en game by game basis ? För isåfall fungerar dlss lagom tills nästa spel i serien är släppt å deras AI får börja om vilket betyder att dlss alltid kommer vara skit om så är fallet.

Skickades från m.sweclockers.com

Man kan ju börja köra budget-gaming! Vänta 2-3 år med alla spelköp! Då lär ju första rtx-serien vara sjukt billig också

Trädvy Permalänk
Medlem
Plats
Skåne
Registrerad
Maj 2006

@MarkSix: Håller helt med dig. Det verkar vara inne att hata Nvidia, känns som folk klagar på allt de gör nu för tiden. T.ex. inte ens att 1660Ti ser ut att kosta runt 3000 är något positivt tydligen.

Håller med om att det finns mer jobb att göra på DLSS för att få upp bildkvalitén, men tycker det är en lovande teknik och ray tracing gillar jag verkligen. Man får alltid räkna med barnsjukdomar med nya tekniker så har det ju ofta varit förr dessutom!

Tycker folk bör åtminstone försöka vara lite positiva istället, tänk om marknaden hade stått helt still och ingen hade velat utveckla något nytt alls, hur kul hade det varit?

Mobo: Asus X470 Crosshair VII Hero * CPU: AMD Ryzen 7 2700X * RAM: 32Gb G.Skill TridentZ RGB 2933Mhz CL14 * PSU: Seasonic 850W Focus+ Platinum * GPU: Gigabyte RTX2080 Gaming OC * SSD: Samsung 860 EVO 2 TB * DVD: ASUS DVD-RW * Chassi: Fractal Design Define R6 TG Svart * Skärm: Alienware AW3418DW

Trädvy Permalänk
Medlem
Plats
Hemma
Registrerad
Okt 2001
Skrivet av marcusOCZ:

Nvidia snackar ju själva om att DLSS är en ersättare av traditionell AA och att det mest är menat för högre upplösningar såsom 1440p och 4k. Det jag säger är att i 4k behöver man inte AA alls, slå det helt av. Vad skulle DLSS ersätta då? Det enda du får just nu i alla fall, är -3 på bägge ögonen.

Det är meningen att du skall få högre fps i 4k. Du kör spelet i 1440P och dlss skalar upp det till 4K (IT JUST WORKS) Men på det jag sett tycker jag det även blir sämre så jag kör hellre Native 4K utan nån jävla aa alls.

CPU: Intel i7 6800 @ 4.6 GHz | MK: MSI x99 Pro Carbon | Gpu: Asus GTX 1080 Ti Poseidon @ 2100Mhz | RAM: Corsair Dominator Platinum 3000 MHz 32 GB | Chassi: Phantek Enthoo Primo | Psu: Corsair RMI 1000W | Kylning: Custom vatten med 3 radiatorer och dubbla D5 pumpar samt Waterchiller | Skärm: OLED65B7V

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007

Man kan inte sminka en gris.

AMD Ryzen 7 1700 | Vega RX 64 | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W | Corsair 600T Graphite vit.
AMD FX8350 | Polaris RX 460 4 GB | https://valid.x86.fr/0q5pkm | Cooler Master V 700W | 32 GB ECC-Minnen.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Ystad
Registrerad
Jan 2012
Skrivet av Ratatosk:

Man kan inte sminka en gris.

Man kan, men folk ser att det fortfarande är en gris.

CPU: i7-8700k @ 5 GHz + Noctua NH-U14S || GPU: Palit RTX 2080 Ti GamingPro OC.
MoBo: Asus Rog Strix Z370-F Gaming || RAM 16 GB G.Skill Trident Z RGB 3200 MHz.
PSU: Seasonic Focus+ 850W Gold || Chassi: Corsair Crystal 460X + 6st Corsair LL120.
Lagring: Samsung 830(128 GB), Samsung 860 EVO(500GB) Crucial MX300(525 GB).
Skärmar: Acer Predator XB271HU + Samsung C27F396 || OS: Win 10 Pro N.

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Skrivet av MinscS2:

Man kan, men folk ser att det fortfarande är en gris.

Det är sant.

Dold text

AMD Ryzen 7 1700 | Vega RX 64 | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W | Corsair 600T Graphite vit.
AMD FX8350 | Polaris RX 460 4 GB | https://valid.x86.fr/0q5pkm | Cooler Master V 700W | 32 GB ECC-Minnen.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
127.0.0.1
Registrerad
Sep 2003
Skrivet av Frux:

Finns utrymme för förbättringar av DLSS helt klart. Jag provade att slå på det men om man kollar noga så försvinner det en hel del skärpa i texturer och så.

https://i.imgur.com/E5mjEQJ.jpg

Läste ditt inlägg för ca 5 minuter sen, fnittrar fortfarande

1: Intel i7-3930K | 32GB Corsair Dominator GT | Asus Rampage IV Extreme x79 | 2 x 1080 GameRock Premium 8GB | 2 x Samsung Pro 840 512GB | Corsair AX1200i | BenQ XL2411 24" / W1070 135" | Bose QC25 | Windows 10 Pro x64 | HTC Vive |
2: Intel Core i7-4700HQ | 32GB RAM | Intel HM87 Express | GTX 780M | 17" | Windows 10 Pro x64 |

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2008
Skrivet av inquam:

Också funderat på detta. Gjort lite maskinlärning på oplika saker och beroende på träningsdatan så har jag haft modeller som är allt från 20-30MB till 1GB+. Det för varje spel som stödjer DLSS kan nog bloata drivrutinspaketen rätt bra.

Jo precis vad jag funderade på. om några år så lär det ju bli ganska många. mja,, om det nu inte floppar helt, vilket iofs ser ut att vara en möjlighet.

"Dustybridge" 2500K - 32GB RAM - Tac2 - GTX770 - 120hz - vattenkylning - vad mer behöver man veta? ;)