AMD:s DLSS-utmanare letar sig ut i patent

Permalänk
Testpilot
Skrivet av sweisdapro:

Precis, jag har inte riktigt köpt hela "hypen" kring DLSS, men något som testas för lite i sambandet är normal upscaling.
Kommer ihåg att TechSpot gjorde en tidig test av DLSS (i FF och någon benchmark), där de förutom att jämföra stillbilder och bildkvalitet, även i benchmarkens testslinga (som ju borde vara där DLSS presterar som bäst) testa traditionell upskalning och om fram till att man kunde få precis samma bildkvalitet och prestanda på så sätt.

Skrivet av QueleX:

Jag själv kände mig väldigt lurad av Nvidias marknadsföring av vad DLSS kan och inte kan göra när jag testade det själv första gången. Tycker det är konstigt att journalistik så som t.ex. Sweclockers inte har granskat detta mer ordentligt, så att man tidigare kunde fått en mer rättvis bild av tekniken än den Nvidia ger.

Gäller att särskilja DLSS från DLSS 2.0 här också, det är så pass stor skillnad mellan dessa två att det skulle likväl kunna vara två helt olika tekniker man använt sig till och med – Det är en natt och dag skillnad.

Om ni har tillgång till ett RTX-kort är det bara att starta upp valfri titel med DLSS2.0 och testa själv – Kötta på med DSR/TAA/SSAA och sedan jämför med DLSS (2.0) i en modernare titel och se vilken skillnad i prestanda samt bildkvalité ni får ut

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | VGN K75 Pro | Deathadder V2 Pro >

Permalänk
Skrivet av Yatagarasu:

Intressant, är detta något du upplever bara i Warzone eller över flera titlar?

Är genuint nyfiken här nämligen om jag kan reproducera resultaten nämligen, eller hur det tämligen eventuellt upplevs i rörelse utöver att frysa en frame eller två i stillbild. För igen, har som sagt inte direkt själv reflekterat över att DLSS upplevs som suddigt väl 'in action' så att säga – Åtminstone inte i titlar som Young Blood, CP77 eller Exodus som var den senaste titeln där jag lekte med både 'RTX' och DLSS i deras benchmark.
Absolut är inte DLSS felfritt, och det är faktiskt bara att kolla Death Stranding videon från just DF också. Där kan man se att även med DLSS 2.0 uppstår det saker utanför det ordinarie skopet, speciellt med animationer/partiklar på distans som har tendens att 'warpa/distorta' – Men igen, dessa detaljer tror jag inte de flesta skulle ens märka av som inte direkt letar efter dem eller som inte är insatta rent tekniskt i vad som bör vara vad. Speciellt under aktivt spelande där man inte stannar upp och beundrar detaljerna på en korg eller tippen av en glödlampa.

Vet inte om jag kan hålla med alls här faktiskt då det är grymt stor skillnad vågar jag påstå mellan standard SS(AA)-upscale, TAA, checkerboard rendering och DLSS. Finns hur mycket tydliga exempel på detta som helst, t.ex. denna bilden:
https://abload.de/img/screenshot_2020-07-2802jef.jpg
Medan andra gånger är det mer subtilt, nästintill ingen märkbar skillnad öht mellan tekniker också, likt här:
https://static.techspot.com/articles-info/1801/images/2019-02-27-image-11.jpg

I slutet av dagen tror jag på DLSS som en teknik, allt kommer ner till hur man väljer att implementera teknikerna. Självfallet kommer man med största sannolikhet finna små hål här och där, precis som med checkerboarding eller andra tekniker. Men kan jag få 30-40% ökad FPS utan nämnvärd eller märkbar kvalitetsförlust, då tar jag det även om det är en genväg kontra nat-res.

Igen tror jag dessutom att utöver hur väl tränat Nvidias nätverk är/blir, att det kommer ner till att implementera funktionen korrekt. För precis som med Ray/Path-tracing är det inte bara att 'slappa på' och kalla det färdigt, utan det krävs med högsta förmodan handpåläggning i diverse olika former för specifika scenarion för att få godtyckliga och skottsäkra resultat.

Skrivet av Yatagarasu:

Gäller att särskilja DLSS från DLSS 2.0 här också, det är så pass stor skillnad mellan dessa två att det skulle likväl kunna vara två helt olika tekniker man använt sig till och med – Det är en natt och dag skillnad.

Om ni har tillgång till ett RTX-kort är det bara att starta upp valfri titel med DLSS2.0 och testa själv – Kötta på med DSR/TAA/SSAA och sedan jämför med DLSS (2.0) i en modernare titel och se vilken skillnad i prestanda samt bildkvalité ni får ut

Men är du blind eller? Har du suttit med suddiga ögon sen födseln och inte kan se skillnad mellan DLSS på och av? haha va? xD
Det är väl självklart att bilden blir nästintill perfekt med DLSS på om man låter funktionen stabilisera sig i ett par sekunder innan man rör på sig igen. Det är ju legit som att säga "FXAA är asbra för den lilla performance hit det gör". Mjo visst om du föredrar att kolla genom ett smutsigt glas och inte kunna urskilja vissa saker fine.

F.ö har jag nog under mina 25 år på denna planet aldrig stött på någon som fanboyar det gröna laget så mycket som du gör. Jeez lugna dig.

Permalänk
Medlem
Skrivet av Babakunde:

Men är du blind eller? Har du suttit med suddiga ögon sen födseln och inte kan se skillnad mellan DLSS på och av? haha va? xD
Det är väl självklart att bilden blir nästintill perfekt med DLSS på om man låter funktionen stabilisera sig i ett par sekunder innan man rör på sig igen. Det är ju legit som att säga "FXAA är asbra för den lilla performance hit det gör". Mjo visst om du föredrar att kolla genom ett smutsigt glas och inte kunna urskilja vissa saker fine.

F.ö har jag nog under mina 25 år på denna planet aldrig stött på någon som fanboyar det gröna laget så mycket som du gör. Jeez lugna dig.

Fanns inte ett ord i hans argument som var osakligt. Varför ska hen "lugna sig"? Är det så dåligt att ha en åsikt? Och bara för att man tror på en tekni så behöver det inte betyda att man är fanboy. Jag är otroligt imponerad av Quest 2 t.ex. men avskyr att det är Facebook som äger det och kräver facebook inloggning.

Lugna ner dig själv och håll dig till sakliga argument.

Permalänk
Skrivet av Babakunde:

Det är väl självklart att bilden blir nästintill perfekt med DLSS på om man låter funktionen stabilisera sig i ett par sekunder innan man rör på sig igen. Det är ju legit som att säga "FXAA är asbra för den lilla performance hit det gör".

Använder du en CRT eller en LCD med någon sorts blur reduction?
Annars är det lite svårt att uttala sig om klarhet i rörelse. Även de snabbaste TN-panelerna har svårt att visa klarhet i bilden vid rörelse pga "sample-and-hold blur".

Det jag kan säga om saken från egen erfarenhet är att i Control med DLSS 2.0 så är det ingen försämring i klarhet vid rörelse jämfört med stilla. Just Control är lite vanskligt dock för att det tenderar att se skarpare ut vid rörelse (på min skärm med ULMB vid 120 Hz och även 100 Hz för den delen) oavsett om man använder DLSS eller inte. Men det är som sagt samma upplevda förbättring i skärpa även med DLSS.

Skillnaderna mellan DLSS med hög kvalitet och native resolution (i Control) är (för det mesta) små men går att se om man gör en direkt bildjämförelse. Utan en direkt bildjämförelse är det svårt och medan man spelar är det mycket svårt att uppfatta. Det är typ i cut-scenes när man har lite tid att fokusera som man kan tänka "hmm, skulle det där se lite bättre ut utan DLSS?" men att vara tvärsäker på den saken är nog många gånger att överskatta sin förmåga att kunna avgöra det om man hade gjort ett blindtest med och utan DLSS.

Andra spel kan jag inte uttala mig om. Jag har använt DLSS i BF5 men har inte gjort någon ingående utvärdering som jag gjort med Control.

Permalänk
Medlem
Skrivet av The Kristoffer:

Digital foundry gjorde en jättefin video som gick igenom en massa flaws i DLSS 2.0, du kanske bara inte har så kritisk blick eller jobbat med bildredigering så du missar all billiga poänger Nvidia kammar hem? Digital foundry verkar inte heller helt insatta i bildkvalitet då de slätade över alla skräckexempel med vackra ord.

https://uploads.disquscdn.com/images/de2e23a3acc650d322d55423e193d3ef8615ce67d26f4e013fb4517724249a3b.jpg?w=800&h=619

https://uploads.disquscdn.com/images/cf7e9da2dcd04a9d3f0699b7d53ffacdd39fea7f8ba415e4b7ce6f5d07db27eb.jpg

Superkul utveckling, verkligen. För 20 år sedan någon av GPU-makarna gjorde något liknande stunt för att driva ned bildkvaliteten för prestanda i recensioner så synade media dem relativt fort och kommenterade att ja, förvisso presterar kortet bättre än konkurrentens, men det är ju på grund av att kortet renderar hälften av det den ska. Det här är samma sak, fast istället för att skita i att rendera två träd, så renderar Nvidia upp två suddiga träd och hoppas att techsidor ska fortsätta vilja få gratis recensions-exemplar utskickade. Kejsaren är naken, jag vet inte vad konsumenter har att försvara i det här, siter som denna har jag dessvärre större empati med. Jag tar alltid lovord med en nypa salt nu för tiden, ingen här gynnas ju om Redaktionen tappar jobbet.
Men nu var det flera år sedan sidor som Anandtech faktiskt gjorde ett djupdyk i GPUer, allt ska gå så jäkla fort idag, känns som att få människor har möjlighet att stanna upp och tänka till i sin fors, man följer liksom med och sedan blev det visst fredag igen.

Problemet med Digital Foundry är att dom inte är direkt oberoende media.

Dom har mycket som är direkt sponsrat av Nvidia samt att dom var dom enda som hade fått möjlighet att släppa en jämförelse på RTX3080 i samband med att kortet presenterades.
Tror inte direkt att dom far med osanning med dom berättar nog inte allt i dom där genomgångarna av rädsla för att förlora en stor del av sin inkomst, vi såg ju hur det vart för hardware unboxed när dom var kritiska till DLSS.

Visa signatur

AMD Ryzen 7 2700 3.2 GHz | ASUS ROG STRIX B450-I GAMING
Corsair SF600 | 2x8GB G.Skill 16GB DDR4 3200MHz Trident Z RGB
MSI GeForce GTX 980 Ti | Samsung 970 EVO 250GB | Samsung 860 EVO 500GB M.2 | Noctua NH-L9a-AM4 | DAN Cases A4-SFX v2 | Winows 10

Permalänk
Medlem
Skrivet av QueleX:

Båda är DLSS quality, exakt samma inställningar, samma inspelning. Men den suddiga är precis efter ironsightinzoomningen och den högra är ca 2 frames senare när DLSS har hunnit skapa en högupplöst bild av flera nästan identiska frames.

Så fort du gör en stillbild och jämför är DLSS mycket bra. Du måste jämföra en scen med mycket rörelse (te.x. då man rör musen) för att se hur suddigt DLSS blir då.

Eftersom mitt rtx2070 är för svagt för 1440P i Fortnite så kör jag med DLSS, och kan lova dig att det är allt annat än suddigt i rörelse.

DLSS 1.0 som jag testade i Shadow of the tomb raider däremot var ren katastrof bildmässigt, och jag förstod inte alls hypen med DLSS innan 2.0 kom.

Kan även tillägga att en annan fördel med DLSS är hur sjukt bra kantutjämningen blir med enbart DLSS. Enbart för det är det värt med DLSS.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Eftersom mitt rtx2070 är för svagt för 1440P i Fortnite så kör jag med DLSS, och kan lova dig att det är allt annat än suddigt i rörelse.

DLSS 1.0 som jag testade i Shadow of the tomb raider däremot var ren katastrof bildmässigt, och jag förstod inte alls hypen med DLSS innan 2.0 kom.

Kan även tillägga att en annan fördel med DLSS är hur sjukt bra kantutjämningen blir med enbart DLSS. Enbart för det är det värt med DLSS.

Oj, det låter ju väldigt intressant att det skulle fungera så bra för dig... skulle du vilja dela ett inspelat klipp i bra bitrate på ett par sekunder där du rör dig och stannar med DLSS påslaget?

Permalänk
Testpilot
Skrivet av Babakunde:

Men är du blind eller? Har du suttit med suddiga ögon sen födseln och inte kan se skillnad mellan DLSS på och av? haha va? xD
Det är väl självklart att bilden blir nästintill perfekt med DLSS på om man låter funktionen stabilisera sig i ett par sekunder innan man rör på sig igen. Det är ju legit som att säga "FXAA är asbra för den lilla performance hit det gör". Mjo visst om du föredrar att kolla genom ett smutsigt glas och inte kunna urskilja vissa saker fine.

F.ö har jag nog under mina 25 år på denna planet aldrig stött på någon som fanboyar det gröna laget så mycket som du gör. Jeez lugna dig.

Oj oj, här var det någon som inte fått sitt morgonkaffe eller haft ett par dåliga games i LoL vid naddsuddandet verkar det som

För klarhetens skull jag kan meddela att det inte är något fel på min syn – 1.0 på vänstern och 0.9 på högern, nästan perfekt pott med andra ord. Mig veterligen inte något brytningsfel heller, om man kan lita på optikern jag besökte senast då.

Sedan att du ens nämner FXAA i sammanhanget av DLSS/checkerboarding eller dylika tekniker som diskuterats påvisar ju mer din bristfälliga kunskap om någon tidigare nämnd teknik i fråga mer än någon "fanboyism" från min sida. Dessutom, om du skulle bemöda dig att scrolla tillbaka genom några av mina tusentals inlägg kan du med enkelhet se att jag inte är eller har varit det största 'fanet' av Nvidia mer eller mindre någonsin – Speciellt med hur de hanterar sina kundrelationer och sonika.

Jag kan t.o.m. anse att jag varit rätt objektiv i sakfrågan då jag erkänner brister i tekniken samt efterfrågar scenarion jag kan testa att reproducera effekter som 'blurring' på egen hand utöver att förlita mig på tredje-parts källor inom ett område som inte är speciellt väldokumenterat utöver ett par hand fulla ställen som Digital Foundry.

Skrivet av BengaBang:

Problemet med Digital Foundry är att dom inte är direkt oberoende media.

Dom har mycket som är direkt sponsrat av Nvidia samt att dom var dom enda som hade fått möjlighet att släppa en jämförelse på RTX3080 i samband med att kortet presenterades.
Tror inte direkt att dom far med osanning med dom berättar nog inte allt i dom där genomgångarna av rädsla för att förlora en stor del av sin inkomst, vi såg ju hur det vart för hardware unboxed när dom var kritiska till DLSS.

Jag förstår helt klart din synpunkt här, men det bör även sägas att Digital Foundry drivs av Eurogamer och är inte någon mindre självständig kanal i praktiken som är helt beroende av sina egna inkomstkanaler. Självfallet stoppar det inte faktumet att ibland verkar kanalen lite Nvidia-centrisk, något jag själv reflekterat över emellertid – Men det kan också bottna i att AMD som exempel inte haft något intressant på marknaden värt att direkt prata om när det kommer till dessa typer av tekniker också, därmed inte haft direkta partnerskap och sponsrade videos heller.

Med det sagt ska man självfallet alltid vara källkritisk och gärna korsreferera eventuella resultat med flera källor! Dessvärre är det väldigt få (i min mening) generellt pålitliga källor som hanterar tekniker likt DLSS/Checkerboarding med djupgående analyser utöver Digital Foundry i fråga. Alex Battaglia är även (igen, i min mening) väldigt teknisk kunnig gällande mer tekniska aspekter relaterat till just diverse AA-tekniker, uppskalningsmetoder och renderingsmetoder – Vilket jag inte kan säga om många andra Tech-tubers där ute som mer ofta än sällan verkar läsa från ett skript med kopierad Wiki-information

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | VGN K75 Pro | Deathadder V2 Pro >

Permalänk
Datavetare

Om man är expert på ett område måste man väl ändå inse att man ser "problem" som rent tekniskt finns där, men som en förkrossande majoritet i vissa fall inte alls noterar och i många andra fall helt enkelt inte bryr sig om.

"Focus is a matter of deciding what things you're not going to do."
John Carmack

Tror ingen hävdar att tekniker likt DLSS är perfekt, men för att fortsätta med visdomsord: Perfect is the enemy of good. Vad man får med DLSS är en avvägning, för egen del och gissar att samma gäller för majoriteten (men absolut inte alla) uppväger vinsterna nackdelarna.

Att köra i lägre upplösning ger inte samma effekt som att rendera i motsvarande upplösning och skala upp med DLSS, men likt att köra med lägre upplösning kan man m.h.a. DLSS öka andra effekter som definitivt har en positiv påverkan på upplevt slutresultat.

Var inte helt övertygad om värdet hos Tensor-kärnorna för konsumenter när de introducerades. För datacenter och andra fall där ML redan var viktigt, absolut, men var lite mer tveksam för konsumentmarknaden. Nu lite mer än 2,5 år efter introduktionen av Tensor-kärnor är det rätt uppenbart hur rätt Nvidia hade på denna punkt. ML börjar leta sig in i allt fler användarfall, bl.a. videoredigering och bildredigering kan får rejäla vinster från ML.

Att AMD anstränger sig att få till FSR ger en vink om att även DLSS som teknik är helt rätt (åter igen, för majoriteten, inte för alla). Inget som säger att man måste använda ML, vi får se vilka avvägningar som görs med FSR. Med den lösning Nvidia valde i DLSS är dock tensor-kärnorna en kritiskt komponent och det passar extra bra ihop med spel då inget annat måste offras i prestandaväg då tensor-kärnorna normalt inte används i spel (kan i.o.f.s. komma att ändras om ML blir en vanligt inslag i spel-AI, men finns ju andra vägar som att likt M1 integrera en NPU (neural processing unit), tensor-kärnorna är en form av NPU i GPU).

Skrivet av orginallinus:

" AMD har i samtal med SweClockers bekräftat att det inte är någon artificiell intelligens inblandat i FSR."

Eller menas maskininlärning? Nån får reda ut, men AI och maskininlärning är väl inte riktigt samma sak?

Skrivet av CubaCola:

Nu kan jag vara ute och cykla, men som jag uppfattat det så är maskininlärning verkligen en del av ai, då det är maskinen som lär sig själv.

Helt rätt, AI är ett bredare koncept jämfört med ML. ML är en teknik som kan användas för att designa AI.

Så i någon mening blir det ändå korrekt att säga "det inte är någon artificiell intelligens inblandat i FSR", men det skulle bli mer precist att säga "det inte är någon maskininlärning inblandat i FSR" då det man egentligt refererar här till är hur FSR står sig i relation till DLSS där ML är en kritisk komponent.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Jag tycker det låter intressant. Speciellt att dom går en annan väg än Nvidia, detta skall jag föjla.

Permalänk
Medlem
Skrivet av QueleX:

Oj, det låter ju väldigt intressant att det skulle fungera så bra för dig... skulle du vilja dela ett inspelat klipp i bra bitrate på ett par sekunder där du rör dig och stannar med DLSS påslaget?

Kan försöka, men annars kan du jämföra Fortnite med eller utan DLSS här också:
https://www.youtube.com/watch?v=i5WuzatxKzM

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem

Ser framemot detta. Får se vad Amd kan få fram och om det kan tävla mot Nvidia.

Permalänk
Medlem
Skrivet av CubaCola:

Kan försöka, men annars kan du jämföra Fortnite med eller utan DLSS här också:
https://www.youtube.com/watch?v=i5WuzatxKzM

Kollade på Fortnite-klippet nu. Tycker både "Native 4K" och DLSS 4K ser lika suddigt ut tyvärr... Huruvida detta är Nvidias, Youtubes, Fortnintes eller mitt fel vet jag inte. Hursomhelst vore det kul om du kan visa ett hemmagjort klipp där DLSS fungerar även på rörelse. Satte in Warzone-klippet oskalat tillsammans med Nvidias Fortniteklipp oskalat (båda 1 till 1 pixelstorlek), så du kan se hur suddigt allt är i Nvidias demo. Jag tycker båda varianterna av Fortnite ser ungefär lika oskarpa ut som Warzones "DLSS after motion"-varianten. https://ibb.co/0yjq9RF

Antar att Nvidia gör som de påstår och skickar in bilddata i ett neuralt nätverk och låter nätverket tränas upp så att det kan spotta ut något som ser bra ut, men känns lite som att vad nätverket faktiskt gör i slutändan är typ samma som många kameratillverkare har gjort länge med sina "High Res Photo Mode": https://www.dpreview.com/reviews/olympus-om-d-e-m5-ii/4

Missförstå mig inte, jag tycker Nvidias DLSS-läge renderar grymt snygga stillbilder från grafikmotorer. Undrar bara hur relevant det är att prata om höga fps på stillbilder..? Vem vet, kanske kan Nvidia göra ett DLSS-"super high quality" läge som aldrig är suddigt och ändå ger en liten prestanda boost, eller i alla fall fungerar som en bra AA utan negativ inverkan på fps. Då hade jag gärna använt det, men som det är implementerat idag, fungerar det inte för mig i MP-spel.

Antar att jag härmed även avslöjar att mitt skrivbord är på tok för litet, så att jag tvingas sitta med näsa tryckt mot skrämen... Har man en normalstor skärm (27 tum) och sitter på normalt avstånd kan jag inte tänka mig att man skulle behöva rendera ett spel i 4K för att det ska se bra och skarpt ut...

Permalänk
Medlem
Skrivet av QueleX:

Kollade på Fortnite-klippet nu. Tycker både "Native 4K" och DLSS 4K ser lika suddigt ut tyvärr... Huruvida detta är Nvidias, Youtubes, Fortnintes eller mitt fel vet jag inte. Hursomhelst vore det kul om du kan visa ett hemmagjort klipp där DLSS fungerar även på rörelse. Satte in Warzone-klippet oskalat tillsammans med Nvidias Fortniteklipp oskalat (båda 1 till 1 pixelstorlek), så du kan se hur suddigt allt är i Nvidias demo. Jag tycker båda varianterna av Fortnite ser ungefär lika oskarpa ut som Warzones "DLSS after motion"-varianten. https://ibb.co/0yjq9RF

Antar att Nvidia gör som de påstår och skickar in bilddata i ett neuralt nätverk och låter nätverket tränas upp så att det kan spotta ut något som ser bra ut, men känns lite som att vad nätverket faktiskt gör i slutändan är typ samma som många kameratillverkare har gjort länge med sina "High Res Photo Mode": https://www.dpreview.com/reviews/olympus-om-d-e-m5-ii/4

Missförstå mig inte, jag tycker Nvidias DLSS-läge renderar grymt snygga stillbilder från grafikmotorer. Undrar bara hur relevant det är att prata om höga fps på stillbilder..? Vem vet, kanske kan Nvidia göra ett DLSS-"super high quality" läge som aldrig är suddigt och ändå ger en liten prestanda boost, eller i alla fall fungerar som en bra AA utan negativ inverkan på fps. Då hade jag gärna använt det, men som det är implementerat idag, fungerar det inte för mig i MP-spel.

Antar att jag härmed även avslöjar att mitt skrivbord är på tok för litet, så att jag tvingas sitta med näsa tryckt mot skrämen... Har man en normalstor skärm (27 tum) och sitter på normalt avstånd kan jag inte tänka mig att man skulle behöva rendera ett spel i 4K för att det ska se bra och skarpt ut...

DLSS har i de spel jag använt det alltid fungerat i rörelse. Låter som du förväntar dig att spelet ska bli suddigt, och när man står still så ska man se spelet "byggas upp" till en skarp bild?
Det händer inte i Fortnite iaf, men så ligger jag ju oftast över 144fps, om det spelar någon roll.

Fortnite är lite mjukt i grafiken även utan DLSS, så ingen större skillnad, förutom att kantutjämningen är snäppet bättre med DLSS.
Spelet ser ut som i Nvidias klipp, så jag behöver nog inte fixa något klipp ärligt talat.

Du får ladda hem spelet och kolla själv.

Sitter själv ca 50cm ifrån en 27" 1440P skärm, TFT.
Möjligt att du kör med VA-skärm kanske? köpte en sådan tyvärr men lämnade tillbaka, där har du suddigt när du rör på dig, och sedan så "fixas" bilden till när du står still.
VA är som att spela på en gammal laptop med passiv matris-skärm

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

DLSS har i de spel jag använt det alltid fungerat i rörelse. Låter som du förväntar dig att spelet ska bli suddigt, och när man står still så ska man se spelet "byggas upp" till en skarp bild?
Det händer inte i Fortnite iaf, men så ligger jag ju oftast över 144fps, om det spelar någon roll.

Fortnite är lite mjukt i grafiken även utan DLSS, så ingen större skillnad, förutom att kantutjämningen är snäppet bättre med DLSS.
Spelet ser ut som i Nvidias klipp, så jag behöver nog inte fixa något klipp ärligt talat.

Du får ladda hem spelet och kolla själv.

Sitter själv ca 50cm ifrån en 27" 1440P skärm, TFT.
Möjligt att du kör med VA-skärm kanske? köpte en sådan tyvärr men lämnade tillbaka, där har du suddigt när du rör på dig, och sedan så "fixas" bilden till när du står still.
VA är som att spela på en gammal laptop med passiv matris-skärm

Jag väntade mig magi, som Nvidia utlovat, men fick precis som du beskriver en suddig bild som efter ett par nästan identiska frames blir skarp. Kör IPS och allt är mycket skarpt även under motion när jag spelar utan DLSS.

Permalänk
Medlem
Skrivet av CubaCola:

DLSS har i de spel jag använt det alltid fungerat i rörelse. Låter som du förväntar dig att spelet ska bli suddigt, och när man står still så ska man se spelet "byggas upp" till en skarp bild?
Det händer inte i Fortnite iaf, men så ligger jag ju oftast över 144fps, om det spelar någon roll.

Fortnite är lite mjukt i grafiken även utan DLSS, så ingen större skillnad, förutom att kantutjämningen är snäppet bättre med DLSS.
Spelet ser ut som i Nvidias klipp, så jag behöver nog inte fixa något klipp ärligt talat.

Du får ladda hem spelet och kolla själv.

Sitter själv ca 50cm ifrån en 27" 1440P skärm, TFT.
Möjligt att du kör med VA-skärm kanske? köpte en sådan tyvärr men lämnade tillbaka, där har du suddigt när du rör på dig, och sedan så "fixas" bilden till när du står still.
VA är som att spela på en gammal laptop med passiv matris-skärm

Exemplet från Warzone är dessutom inte filmat med en kamera, utan fångat av grafikkortet, så ingen skärmteknik är inblandad i det beteendet.

Permalänk
Medlem
Skrivet av QueleX:

Jag väntade mig magi, som Nvidia utlovat, men fick precis som du beskriver en suddig bild som efter ett par nästan identiska frames blir skarp. Kör IPS och allt är mycket skarpt även under motion när jag spelar utan DLSS.

Vilken upplösning kör du i? Vet att jag testat Fortnite på min 1080P skärm med DLSS, och resultatet blev inte på långa vägar lika bra som med 1440P där.
Antingen det, eller så är inte Warzones implementering av DLSS något att hurra för (likt som Shadow of the tomb raider)

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av CubaCola:

Vilken upplösning kör du i? Vet att jag testat Fortnite på min 1080P skärm med DLSS, och resultatet blev inte på långa vägar lika bra som med 1440P där.
Antingen det, eller så är inte Warzones implementering av DLSS något att hurra för (likt som Shadow of the tomb raider)

Kör 1440p

Permalänk
Medlem
Skrivet av QueleX:

Kör 1440p

Ok, skulle kolla in youtube om någon postat videos med Warzone och DLSS och hittade "webzy" som har en settings-kanal.
Han sa att 1440P med DLSS såg ut bra ut, han kunde inte se någon skillnad i quality-settings.
i 1080P däremot var det blurrigt.

Däremot så är det en bugg med Warzones DLSS att siktena på vapnena är fel, så man kommer inte träffa skotten där man vill ha dom med DLSS just nu. (och även lätt att missa lådor då de inte "glöder" med DLSS).
Så troligen bara en dålig implementering av DLSS som vi får hoppas fixas.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av danskung:

Så vitt jag vet så har alla dlss 2.0 spel jag testat fungerat på min Lg 34gn850 3440x1440.

Har samma skärm och har inte upplevt några problem. Mest spelat outriders och cyberpunk 2077, är sjukt imponerad av DLSS.

Permalänk
Medlem

Disclaimer: har inte använt DLSS.

Det som jag undrar mest över är om nu bildkvaliteten på DLSS (2.0/2.1) varierar, t ex är sämre i 1080p än i 4K som det verkar vara, och från spel till spel, varför presenteras DLSS ofta så okritiskt som om det vore lika bra kvalitetsmässigt alltid, såväl i 1080p som i den bästa representationen av DLSS i 4K? DLSS är inte magi utan en algoritm, med både för- och nackdelar. Troligtvis syns dessa nackdelar mer i lägre upplösning. På något sätt glöms det bort?

2kliksphilip gjorde en bra och rolig video som går lite mer bakom kulisserna på tekniken - som jag hittade för att FZ länkade till den för ett tag sedan:

Jag tycker DLSS har högt bruksvärde för den som vill ha högre fps, men det är ingen gamechanger (som Digital Foundry tyvärr gärna gör gällande var gång DLSS kommer på tal - ett alltför marknadsföringsmässigt anpassat uttalande vilket i mina ögon gör DF mindre trovärdiga som oberoende nuförtiden). Jag är också kritisk till marknadsföringen av den sk machine learning component som hänvisas till, det ordet används lite som ersättning för magi idag, och stämmer också alltför väl in i ett marknadsföringsschema.

Om det används tror jag det kan vara någon upplärd algoritm i något nätverk som förstärker vissa allmänna strukturer som linjer etc. Den sanna bilden är native, om man ska beräkna kvadratfel eller hur man vill göra, allt man ser utöver native - som att hår kan bli tydligare i en uppskalad bild - är konstruerat. Lite som att sötat vin kan smaka bättre än osötat. Även om man sötar med druvjuice är det ändå sötat. Men visst, man kan hävda att kantutjämning också är att söta bilden.

Sen tror jag iofs att DLSS 2.1 flyttar sampelpunkterna, för att t ex efter 4 kvadratiskt roterade bilder i 1080p har man ju automatiskt en 4K-bild om man står stilla. Alla sampel utöver det kan användas för att förbättra kantujämning etc. Då måste man emellertid såklart in i spelmotorn tidigare än i slutbilden, för att justera exakt var och hur man tar sina sampel i viewporten, vilket Nvidia också gör. Sen lägger man på lite mer avancerade optimeringar exakt var man tar sampelpunkterna även vid rörelse - rörelse både på viewporten och på objekt i bilden - mellan varje sampel. Sen möjligtvis något nätverk för att stabilisera bilden, som att fylla ut vid saknade pixlar pga att objekt rör sig eller vid kanter, för att förstärka linjer, öka kontrast, kanske som sagt beräkna var nästa sampelpunkter ska tas för att optimera kantutjämningen.

Så visst kan DLSS vara bra. Det är bra. Men det är okritiskheten framför allt. Är DLSS vid 1080p verkligen lika bra som vid 4K? Och att det är bra i t ex Death Stranding spelar ingen roll för mig, det spelet är ju spelbart utan DLSS. Lite poänglöst att använda DLSS då, men bra marknadsföring av hur tekniken fungerar?

Jag hoppas AMDs version av FSR blir hyfsat bra, för det räcker ju med hyfsat för att få upp det till samma bruksvärde, och att det blir mer öppet än Nvidia DLSS, för alla spel, för alla kort, även Intels och Nvidias. Sen kan vi förhoppningsvis lämna den här diskussionen, som ju faktiskt helt beror på Nvidias beslut att göra DLSS till en proprietär teknik för att få sälja mer grafikkort.

Permalänk
Medlem

Såg nu att Unreal Engine 5 får någon sorts Temporal Super Resolution. Som sagt, bättre att spelen får uppskalningsteknik som funkar för alla plattformar, inte bara för vissa grafikkort: