Nvidia DLSS kan ge 50 procent högre prestanda i Monster Hunter: World

Trädvy Permalänk
Entusiast
Plats
Göteborg
Registrerad
Nov 2002

Jag tror att DLSS kommer bli bra till nästa generation rtx 3000 serien. Tanken med ML är god men verkar vara så att tensor hårdvaran inte klarar av att göra den den behöver för att avlasta de andra kärnorna.

Trädvy Permalänk
Medlem
Registrerad
Okt 2018
Skrivet av ChaosClocker:

Kommer inte röra DLSS tills jag sett ett spel där det funkar. Som det är nu så tar den bort/suddar detaljer.

vill minas att olika youtube kanaler tycker att Shadow of the tomb raider ser bättre ut med
DLSS en med TAA.

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Trädvy Permalänk
Medlem
Registrerad
Nov 2004
Skrivet av wowsers:

DLSS körs dock på Tensor kärnorna och inte Ray Tracing kärnorna.

I all sin ära ska Nvidia veta att de har den bästa 1440p till 4k uppskalaren, frågan är hur bra detta kommer stå sig i längden mot 70-80% scaling med typ radeon image sharpening som kommer användas av många utvecklare för nästa generationens konsoller (förutom nintendo som sitter på nvidia hårdvara utan tensor kärnor).

Ja, jag blandade ihop det, poängen var iaf "cores som annars idlar i spel".

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Feb 2011
Skrivet av JBE:

Tror det är ett koncept som bara är bra i 4k+, uppskalning generellt ser ju för jävligt ut i lägre upplösning så det finns inte så mycket att jobba med då. Spelade i en period i 1440p skalat till 4k innan 2080ti släpptes och gamla 1080-kortet bara inte orkade driva 4k.
Man kunde ju leva med det, såg ok men lite halvfult ut - det är en duglig grund spela på 1440p skalat till 4k så dlss måste inte fylla i såå mycket.

Att skala 1080p bra till 1440p och få det snyggt kräver nog magi, och då 1440p är relativt lättdrivet ändå kommer det nog inte prioriteras om det alls är möjligt.

Om/när 8k eller annu högre upplösningar slår igenom på bred front så kommer säkert det mesta spelas med någon sorts dlss eller andra liknande smarta uppskalningar. Jag tror dlss kan vara en halv-bra tidig version av en framtida standard.

Jo det är min upplevelse också, med förtydligandet att det är väl pixeltäteheten som spelar mest roll för upplevelsen. I min kommentar tänkte jag främst på andra aspect ratios typ 32:9 och 21:9. Finns ju en hel del där som har potentiellt hög pixeltätehet också och där DLSS skulle kunna lira. Typ 5120x1440.

There are two kinds of people. People you drink with and people who make you want to drink.

Trädvy Permalänk
Medlem
Registrerad
Dec 2004
Skrivet av Nyhet:

går från ospelbara 23,6 FPS

Konsolfolket känner sig kränkta och lämnar in en anmälan mot Sweclockers för ofredande.

Trädvy Permalänk
Moderator
Registrerad
Jul 2017
Skrivet av ChaosClocker:

Kommer inte röra DLSS tills jag sett ett spel där det funkar. Som det är nu så tar den bort/suddar detaljer.

DLSS bygger på att rendera spelet i en lägre upplösning och sedan skala upp det. Det innebär att du alltid kommer förlora detaljer såvida inte DLSS kan fylla i detaljer som aldrig ritades upp i första fallet. Något som i bästa fall kan funka ibland. Så du kommer i så fall aldrig röra det.

Det hela känns ju jättedumt eftersom alternativet som är att rendera i en högre upplösning och lägga på ett filter som ökar skärpan både ger en skarpare bild och innehåller fler detaljer eftersom renderingsupplösningen är högre.

Dessutom kräver inte detta en massa servertid för att träna en maskininlärningsmodell och kan appliceras på i teorin alla spel.

Skickades från m.sweclockers.com

En bild säger mer än tusen ord. Så här gör du för att lägga upp bilder till ditt foruminlägg.

Synpunkter på moderering eller andra frågor om siten? Välkommen att kontakta oss via Sweclockers kontaktformulär eller i feedback-forumet.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2017

Jisses med de där prestanda siffrorna borde de fokusera på NVlink optimering istället, rätt kul att köpa en GPU för 11k och sen ligga i 47 fps. Spel i 4K ligger verkligen långt bort i framtiden för mig.

i5-7600K @5GHz | Corsair H115i | MSI Z270 SLI PLUS | Asus RX470 | TG Dark Pro 12GB @3200MHz | Samsung 960 EVO 250GB | Intel 600p Series 512GB | be quiet! Dark Power Pro 850W | iiyama Red Eagle G-Master 24" 144HZ

Trädvy Permalänk
Rekordmedlem
Plats
Salstad
Registrerad
Feb 2009

Det här är väl mest trams för att dölja att korten helt enkelt inte klarar att rendera bilder ttill normala skärmar (4K) ännu.

Ryzen 5 2400G, Asus ROG STRIX B350-F Gaming, 500GB Samsung 970EVO NVMe M.2 och en väldig massa masslagring. Seasonic Focus+ Gold 650W, Antec P 180 med Schyte o Sharkoon fläktar via en t-balancer, Tittar på en Acer ET430Kbmiippx 43" 4K
Främre ljudkanalerna återges via Behringer DCX2496, högtalare Truth B3031A, Truth B2092A Har också Oscilloskop, mätmikrofon och en Colorimeter.

Trädvy Permalänk
Moderator
Registrerad
Jul 2017
Skrivet av aToria:

Jisses med de där prestanda siffrorna borde de fokusera på NVlink optimering istället, rätt kul att köpa en GPU för 11k och sen ligga i 47 fps. Spel i 4K ligger verkligen långt bort i framtiden för mig.

Det är iofs värt att komma ihåg att detta är testat i max inställningar. Många spel kan man ställa ner grafikinställningar som ger nästan ingen märkbar skillnad på bilden men som är dyra prestandamässigt. Därför är det ibland missvisande att titta på FPS-värden vid maxinställningar och tänka "det här är vad jag får".

En bild säger mer än tusen ord. Så här gör du för att lägga upp bilder till ditt foruminlägg.

Synpunkter på moderering eller andra frågor om siten? Välkommen att kontakta oss via Sweclockers kontaktformulär eller i feedback-forumet.

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2017
Skrivet av pv2b:

Det är iofs värt att komma ihåg att detta är testat i max inställningar. Många spel kan man ställa ner grafikinställningar som ger nästan ingen märkbar skillnad på bilden men som är dyra prestandamässigt. Därför är det ibland missvisande att titta på FPS-värden vid maxinställningar och tänka "det här är vad jag får".

Ja det har du ju iofs rätt i, och värt att poängtera. Lite surt är det dock att man inte bekvämt kan maxa nya spel i 4k oavsett hur mycket pengar man sänker i en spelmaskin. Om man börjar tumma på grafikinställningar så känns det som att man frångår hur spelskaparna såg sig spelet när de gjorde det, men det är kanske är en orimlig rädsla, och problematiken är sannerligen inget nytt under solen.

i5-7600K @5GHz | Corsair H115i | MSI Z270 SLI PLUS | Asus RX470 | TG Dark Pro 12GB @3200MHz | Samsung 960 EVO 250GB | Intel 600p Series 512GB | be quiet! Dark Power Pro 850W | iiyama Red Eagle G-Master 24" 144HZ

Trädvy Permalänk
Medlem
Registrerad
Jul 2011
Skrivet av aToria:

Ja det har du ju iofs rätt i, och värt att poängtera. Lite surt är det dock att man inte bekvämt kan maxa nya spel i 4k oavsett hur mycket pengar man sänker i en spelmaskin. Om man börjar tumma på grafikinställningar så känns det som att man frångår hur spelskaparna såg sig spelet när de gjorde det, men det är kanske är en orimlig rädsla, och problematiken är sannerligen inget nytt under solen.

Jag kör inte lika mycket AA sedan jag bytte från 1080p till 1440p. Har man en 4k skärm behöver man t.om ännu mindre om jag förstått det rätt och just AA är en inställning som kan ge rätt många fps.

Skickades från m.sweclockers.com

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Trädvy Permalänk
Medlem
Plats
Göteborg
Registrerad
Dec 2007
Skrivet av ClintBeastwood:

Men om dlss är en funktion som helt enkelt inte funkar på äldre kort så ska dom skita i det även på nya? Jag tar inte illa upp personligen men jag vet att jag bett dig om källa flera gånger men aldrig fått det. Att nerfa något är att göra det medvetet sämre..

Skickades från m.sweclockers.com

Personen antingen trollar eller förstår inte vad "nerf" innebär.

Ryzen 2700x (Noctua NH-D15) || Vengeance LPX 16GB 3200MHz @14
ASUS Prime X470 PRO || ASUS GeForce GTX 1080 ROG Strix @2.1/12Ghz
Fractal Design Define S(4x BioniX F140mm+1x Noctua NF-A15) || Corsair RM750X v2
860 EVO 500 | 850 EVO 250 | Crucial M500 240 || Acer Predator XB271HUA + BenQ xl2420t

Trädvy Permalänk
Medlem
Registrerad
Nov 2011
Skrivet av str8forthakill:

@Mordekai: Att applicera för-rendrerat material som är framtaget genom machine learning väl?

Nej, inget förrenderat alls. DLSS innebär att nVidia låtit en AI testa massor av efterbehandlingsalgoritmer på låt säga 1440P uppskalattill 4K, jämfört dessa med äkta 4K för att se vilka algoritmer som var effektivast på att få 1440P att likna 4K i vilka spel. Resultatet på algoritmer som valts ut sparas. När spelet sedan spelas så kan drivrutinen köra de efterbehandlingsalgoritmer som nVidias analys vid tidigare tillfälle bestämt är bäst lämpade för spelet.

Trädvy Permalänk
Medlem
Plats
Södertälje
Registrerad
Aug 2007
Skrivet av JBE:

Tror det är ett koncept som bara är bra i 4k+, uppskalning generellt ser ju för jävligt ut i lägre upplösning så det finns inte så mycket att jobba med då. Spelade i en period i 1440p skalat till 4k innan 2080ti släpptes och gamla 1080-kortet bara inte orkade driva 4k.
Man kunde ju leva med det, såg ok men lite halvfult ut - det är en duglig grund spela på 1440p skalat till 4k så dlss måste inte fylla i såå mycket.

Att skala 1080p bra till 1440p och få det snyggt kräver nog magi, och då 1440p är relativt lättdrivet ändå kommer det nog inte prioriteras om det alls är möjligt.

Om/när 8k eller annu högre upplösningar slår igenom på bred front så kommer säkert det mesta spelas med någon sorts dlss eller andra liknande smarta uppskalningar. Jag tror dlss kan vara en halv-bra tidig version av en framtida standard.

Off
Testade du att ändra smothness till 15% verkar vara sweet spot. Fungerar för mig i äldre spel och 1080p.

On
dlss tror jag har en framtid inom streaming för att få ner bandbredden. Nu blir det and på nästa konsol generation. Om Må väljer annat i sinna servrar. Vad Google väljer vet jag inte eller Amazon för den delen. Men att skicka en bild samt algoritm borde dra mindre bandbredd än en komprimerad bild. Bara mina tankar.

Skickades från m.sweclockers.com

CPU: i7 3770k@4,50Ghz MB Z77X-D3H RAM: 16GB@2133mhz (10-12-11-27 2T)
GPU: 980Ti@1404,8 Sound: SB-Z -> toslink (DTS)-> old JVC. MB Via to Z-2300 for VOIP. http://valid.x86.fr/nf1u3d https://www.techpowerup.com/gpuz/gxryb

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Dec 2017
Skrivet av ClintBeastwood:

Jag kör inte lika mycket AA sedan jag bytte från 1080p till 1440p. Har man en 4k skärm behöver man t.om ännu mindre om jag förstått det rätt och just AA är en inställning som kan ge rätt många fps.

Skickades från m.sweclockers.com

Det låter rimligt, att man behöver mindre AA på högre upplösningar, men tror du att test som det här maxar AA också som en del av "all grafik på max"? Det vore ju otympligt.

i5-7600K @5GHz | Corsair H115i | MSI Z270 SLI PLUS | Asus RX470 | TG Dark Pro 12GB @3200MHz | Samsung 960 EVO 250GB | Intel 600p Series 512GB | be quiet! Dark Power Pro 850W | iiyama Red Eagle G-Master 24" 144HZ

Trädvy Permalänk
Hedersmedlem
Plats
Malmö
Registrerad
Apr 2007
Skrivet av Svensktiger:

Jag fattar inte varför min dator skall göra ett jobb som utvecklaren borde gjort.
DLSS verkar för mig som ett sätt för olika mjukvaruföretag att få tillgång till min hårdvara för deras syften.
Om nu DLSS är så bra så varför kan inte spelutvecklaren se till att "AI träningen" redan är klar när spelet släpps ?

Det här har du fått svar på redan när du undrat över liknande saker kring DLSS
#17800353

🖥 → Ryzen 5 2600@4,1ghz • Gainward RTX 2070 • 16GB DDR4 • MSI B450I Gaming Plus AC (mITX)
💻 → SurfacePro 3 [i5 • 4GB ddr3 • keybaord + pen]
🖱 → Corsair m65 white / ⌨ → pok3r nordic white
📱 → Oneplus6
🎧 → Sennheiser momentum wireless & Logitech g930

Trädvy Permalänk
Medlem
Plats
Örebro
Registrerad
Feb 2005
Skrivet av Yoshman:

Samma anledning CUDA är de-facto standard för GPGPU? D.v.s. mervärdet kontra kostnaden är, eller i alla fall upplevs, som så fördelaktigt att många väljer den vägen.

Vem har sagt det? Visst att CUDA används men att det skulle vara en sorts de facto standard är helt fel.

Skickades från m.sweclockers.com

Att mäta datorns temperatur vid idle är ungefär lika värdefullt som att mäta frysens temperatur vid avfrostning.

Sitter just nu med en Ryzen 7 1700@3850Ghz och ett GTX 1080@2Ghz.

Trädvy Permalänk
Medlem
Plats
Umeå
Registrerad
Jul 2001

Hur står sig 4k med dlss mot 2k utan? Är bildkvaliten bättre? Annars känns det ganska meninglöst.

Pop OS! 19.04 <3, Windows 10pro (för spel). Asus Strix Z270H GAMING// Intel i7 7700k@4700Mhz// MSI GTX 1070 Gaming X 8G// Corsair VENGEANCE LPX 16GB.

Trädvy Permalänk
Medlem
Registrerad
Nov 2004
Skrivet av hACmAn:

Off
Testade du att ändra smothness till 15% verkar vara sweet spot. Fungerar för mig i äldre spel och 1080p.

Skickades från m.sweclockers.com

Tror att jag inte förstår vad du menar. (menar du kanske DSR supersampling? jag spelade tvärtom, dvs spelade i 1440p på en 4k monitor).
Eller finns det en generell setting jag inte vet om med smoothness för skalning?

Trädvy Permalänk
Medlem
Registrerad
Nov 2004

@Scirocco: I anthem är det det, enda spel jag sett med ren dlss. Saker nära dig ser ut som 4k, medan gissningsvis algoritmen fuskar med saker längre bort för där kan det se ut som 1440p. Vet inte säkert, men såg ut så. Inte spelat det nyligen.. otroligt bra grund-spel och gameplay, men nästan inget att göra efter ett par veckor.

Pastade en video tidigare i tråden där någon i 4k60 jämför on/off sida vid sida.

Trädvy Permalänk
Medlem
Plats
malmö
Registrerad
Maj 2011

Med dlss så blir det sämre kvalitet, där av fps ökning. Greedvidia skämt

Skickades från m.sweclockers.com

Trädvy Permalänk
Medlem
Registrerad
Jul 2011
Skrivet av frong:

Personen antingen trollar eller förstår inte vad "nerf" innebär.

Oavsett blev det inga bevis. Inte den här gången heller. Jag får testa igen nästa gång

Skickades från m.sweclockers.com

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Trädvy Permalänk
Medlem
Plats
Södertälje
Registrerad
Aug 2007

Off:
@JBE:
Ja det är DSR. Jag har 1080p så kör 4x för att få det till 4K

I nVidias kontrollpanel så har du precis under där du slår DSR.
DSR smothening. Den är som standard på 33%. Sweet spot värkar vara 15%.
Här ser du var den inställningen är.
http://i.imgur.com/sFeYEOA.png

Hittade dessvärre inte guiden jag använde och testade runt med. Då de testade ett helt gäng med varianter på texturer i Skyrim.

Edit:
Nu skrev jag iofs om att rendera i högre och sedan sänka. I dit fall så var det ju tvärt om.
Kan tyvärr inte den biten.
Tror att de ända man kunde göra var att gå in på "Adjust desktop size and position" och sätta "Pefrom scaling on: till GPU istället för Display. Men där finns som du påpekade ingen Smotness faktor. Nu är jag ute på rickigt tunn is.

CPU: i7 3770k@4,50Ghz MB Z77X-D3H RAM: 16GB@2133mhz (10-12-11-27 2T)
GPU: 980Ti@1404,8 Sound: SB-Z -> toslink (DTS)-> old JVC. MB Via to Z-2300 for VOIP. http://valid.x86.fr/nf1u3d https://www.techpowerup.com/gpuz/gxryb

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av thomas_skane:

Vem har sagt det? Visst att CUDA används men att det skulle vara en sorts de facto standard är helt fel.

Skickades från m.sweclockers.com

Är rätt många GPGPU fall som enbart stödjer CUDA. T.ex. Tensorflow, PyTorch och Matlab GPU-computing (finns betydligt fler exempel).

Orsak? Testa att utveckla i CUDA resp. OpenCL. Om din tid inte är värdelös borde det vara uppenbart varför många kommersiella applikationer enbart erbjuder CUDA stöd.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Örebro
Registrerad
Feb 2005
Skrivet av Yoshman:

Är rätt många GPGPU fall som enbart stödjer CUDA. T.ex. Tensorflow, PyTorch och Matlab GPU-computing (finns betydligt fler exempel).

Orsak? Testa att utveckla i CUDA resp. OpenCL. Om din tid inte är värdelös borde det vara uppenbart varför många kommersiella applikationer enbart erbjuder CUDA stöd.

Och de som bara stöder OpenCL? Irrelevant?

Skickades från m.sweclockers.com

Att mäta datorns temperatur vid idle är ungefär lika värdefullt som att mäta frysens temperatur vid avfrostning.

Sitter just nu med en Ryzen 7 1700@3850Ghz och ett GTX 1080@2Ghz.