Är hatet mot låtsaspixlar (DLSS och FSR) befogat?

Permalänk
Medlem

Det är absolut att föredra framför att behöva byta grafikkort för typ 5 krävande spel som man vill spela.

Använder inte DLSS för det mesta sett till spel tid då spel jag gillar inte är allt för krävande (3090 räcker för 1440p165).

Permalänk
Medlem
Skrivet av 1440p165:

Det är absolut att föredra framför att behöva byta grafikkort för typ 5 krävande spel som man vill spela.

Använder inte DLSS för det mesta sett till spel tid då spel jag gillar inte är allt för krävande (3090 räcker för 1440p165).

innan dlss så sänkte du renderingsupplösningen och uppsamplade därifrån. det fungerar fortfarande. Men känns nog ändå som DLSS gör ett bättre jobb

FSR har jag bara testat i starfield och det fungerade inte alls i det liret bättre bara skala ner upplösningen.

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Medlem

Jag tycker att hela debatten om t.ex. kvalitétsskillnader mellan DLSS och FSR är ganska löjlig, för i slutändan handlar det om tekniker som egentligen ska skala "normala basupplösningar" (1080p eller 1440p) till skyhöga upplösningar som 4K/8K. I dessa situationer ser båda teknikerna OTROLIGT bra ut sett till vad de faktiskt gör.

Mitt största problem idag är hur hårt nvidia försöker sälja in strålspårning och hela tanken att detta skulle vara åtråvärt även för instegskort (vilket det inte är). Då blir det helt plötsligt att man ska köra spel i 1440p eller 1080p med DLSS/FSR Performance. Och ja, då börjar man tumma på renderingskvalitén ganska rejält (varav skillnaderna mellan teknikerna är mer uppenbara). Samtidigt omsegmenterar både Nvidia och AMD sina kort. (ett 4060 borde egentligen vara ett 4050, ett 7900XT skulle definitivt ha varit ett 7800XT etc.) och det är ju där det går fel. Hur företagen använder uppskalningsteknikerna för att rättfärdiga sin omsegmentering samtidigt som det sakta med säkert tänjer på konsumenters gränser över vad som är acceptabelt. Tittar man på det hela ur ett mer helhetsperspektiv så minskar prestandan/renderingskvalitén för konsumenter, samtidigt som vinstmarginalerna ökar för GPU-tillverkarna

Så, uppskalningsteknikerna i sig är "fantastiska". Däremot skulle jag säga att omsegmenteringen av GPUer och marknadsföringen är själva rooten till det problem många konsumenter börjar känna av idag. Vi får sämre GPUer för samma pengar där vi blir ombedda att använda uppskalningstekniker för att kompensera för låg teknisk utveckling inom samma priskategori. En annan oavsiktlig negativ följdeffekt är att dessa uppskalningstekniker tillåter utvecklare att spara pengar genom att tumma på prestandaomptimeringarna eftersom spelares tolerans för dålig prestanda ökar när uppskalningstekniker finns.

Så summan av det hela är att teknikerna är fantasiska, men sett till den stora bilden kan följdeffekterna ofta vara dåliga för konsumenten i slutskedet.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Datavetare

Går att se relativt tydligt även utan zoom i denna bild

Klicka för mer information
Visa mer

men lite svårt att se hur DLSS inte gör vad som ändå skulle blivit resultat om man lagt långt mer resurser på problemet och renderat det "native".

Det FSR gör i detta fall är mer i linje med normal uppskalning, men även det är i detta fall delvis en förbättring från utgångspunkten.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det FSR gör i detta fall är mer i linje med normal uppskalning, men även det är i detta fall delvis en förbättring från utgångspunkten.

Detta är en av anledningarna varför jag tycker att kvalitetskriget som uppstår mellan uppskalningstekniker är så löjligt. Kvalitetsskillnader i stillbilder utgör ju en högst akademisk analys om hur teknikerna fungerar snarare än hur de faktiskt "ser ut" i rörelse och i verkligheten. I detta fallet är konen ett oerhört snabbt föremål och vi uppfattar inte enskilda bildrutor när spel sprutar ut 60 upp till hundratals bildrutor per sekund. Det handlar snarare om helheten av upplevelsen. Då handlar det mer om upplösning, avstånd till skärmen, uppdateringsfrekvens, hur mycket fokus personen lägger på själva renderingen (pixel-peeping).

När man bedömmer dessa tekniker ordentligt (Med andra ord ens upplevda uppfattning). så handlar det om en subjektiv bedömning. Tyvärr fortsätter krigen i någon form av rättfärdigande argumentation om varför man köpt sitt senaste grafikkort.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem
Skrivet av Napster91:

Vet inte hur du resonerar, typ jag vill inte ha SDR därför är den tekniken också så bra att jag inte vill ha den? I princip alltid bra med alternativ, skärpning på dig. Men någons sign talar för sig själv i avundsjukan...

Alltså, jag förstår faktiskt inte vad du menar.
Du skrev Tekniken är väll jättebra ... Men som den purist man är så nej, inget för mig
Jag tolkar det som att du först menar att det det må vara en bra teknik men eftersom du är purist så är den inget för dig.

Jag antydde bara att, om du å ena sidan säger att det är en bra teknik men samtidigt väljer bort den då den inte duger åt dig — hur bra ÄR då tekniken då egentligen? Vore det inte bättre då att skriva att det kanske inte är så bra teknik eftersom du själv inte lockas att vilja använda den?

Lust att utveckla det du skrev om sign och avundsjuka? Jag förstod inte det.

Skrivet av DasIch:

Vaddå "egentligen"? Det är algoritmer som gissar hur bilden mellan två bildrutor ska se ut. Eftersom bildrutorna visas så kort tid räcker det med att gissningar är "good enough" för att det ska se bra ut. Den uppenbara fördelen är att spelet kommer få mjukare rörelser. En annan fördel, för de som har snabba skärmar, är att den ökade bildfrekvensen ger mindre eftersläpningar.

Så, vad är det som faktiskt måste förstås här?

Om algoritmen gissar var fienden ska vara i nästa bildruta, hur stor nytta har du då av den bildrutan — egentligen?
Du påstår lite smått att det är bra nog med en gissning. Det må vara bra nog för dig, men för många här är det faktiskt inte bra nog alls. Det finns de här i forumet som föredrar färre men sanningsenliga bildrutor, inte fler men påhittade.

Det finns redan etablerade tekniker för att motverka för låga FPS liksom eftersläpningar. DLSS / FSR är inte nya tekniker i avseendet slutgiltig lösning. Dessa är bara alternativa lösningar för att det nu går (genom ML), för de med lägre krav på sann bildåtergivning. Det ÄR okej att tycka att dessa tekniker är bra nog men det finns en del av oss här i forumet / i gamingvärlden som förstår vad det handlar om och som föredrar något annat.

Visa signatur

Kontor MacBook Pro 16" M4 Pro, 48GB, 512GB, Predator X38, TB4 dock
UHD ProArt 4070TiS, i5-13600K (U12A), 32GB 3200, Prime Z790 mATX, 2xNVMe, Prime 650 Platinum, Torrent Compact
QHD 1080Ti, i5-8400, ROG B360 mATX, 16GB, 2xSSD, 750W PSU, nåt Fractal-chassi

Permalänk
Medlem
Skrivet av _genki:

Detta är en av anledningarna varför jag tycker att kvalitetskriget som uppstår mellan uppskalningstekniker är så löjligt. Kvalitetsskillnader i stillbilder utgör ju en högst akademisk analys om hur teknikerna fungerar snarare än hur de faktiskt "ser ut" i rörelse och i verkligheten. I detta fallet är konen ett oerhört snabbt föremål och vi uppfattar inte enskilda bildrutor när spel sprutar ut 60 upp till hundratals bildrutor per sekund. Det handlar snarare om helheten av upplevelsen. Då handlar det mer om upplösning, avstånd till skärmen, uppdateringsfrekvens, hur mycket fokus personen lägger på själva renderingen (pixel-peeping).

När man bedömmer dessa tekniker ordentligt (Med andra ord ens upplevda uppfattning). så handlar det om en subjektiv bedömning. Tyvärr fortsätter krigen i någon form av rättfärdigande argumentation om varför man köpt sitt senaste grafikkort.

Det ser ju ut exakt så i verkligheten??? Eller menar du att FSR 2 känner av i vilken hastighet du för dig och sänker upplösningen baserat på spelarens hastighet?

Mina erfarenheter av fsr 2 i starfield är att det fungerar exakt sådär tyvärr. Det liret har inget officiellt DLSS stöd men det blev klart bättre med modden iaf. Köra native är naturligtvis oslagbart om man har hästkrafterna. Men FSR 2 känns tveksamt versus traditionell uppskalning ärligt talat. Det känns som något AMD i panik fick rusha ut för att möta DLSS för att få sälja och de har inte hunnit utveckla det till samma nivå än. Om det är mjukvaran eller hårdvaran som sätter stopp eller en kombination vet jag ej

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Medlem

Jag är bara positiv till detta. Vad man vill är ju att komma åt maximal upplevelse med bästa möjliga prestanda / framerate.
Att man använder exempelvis DLSS 3.0 för detta och genererar extra frames är ju bara helt fantastiskt.
Tekniken är garanterat här för att stanna eftersom man kan få ut så mycket mer prestanda av att använda sig av detta.

Själv tycker jag inte att bildkvaliteten försämras med DLSS aktiverat. Speciellt inte i kvalitets läget.
Hur FSR fungerar har jag inte testat, så det kan jag inte uttala mig om.

Permalänk
Medlem
Skrivet av mar3ld:

Om algoritmen gissar var fienden ska vara i nästa bildruta, hur stor nytta har du då av den bildrutan — egentligen?
Du påstår lite smått att det är bra nog med en gissning. Det må vara bra nog för dig, men för många här är det faktiskt inte bra nog alls. Det finns de här i forumet som föredrar färre men sanningsenliga bildrutor, inte fler men påhittade.

Det finns redan etablerade tekniker för att motverka för låga FPS liksom eftersläpningar. DLSS / FSR är inte nya tekniker i avseendet slutgiltig lösning. Dessa är bara alternativa lösningar för att det nu går (genom ML), för de med lägre krav på sann bildåtergivning. Det ÄR okej att tycka att dessa tekniker är bra nog men det finns en del av oss här i forumet / i gamingvärlden som förstår vad det handlar om och som föredrar något annat.

Du pratar gärna om att förstå sig på tekniken men du verkar inte förstå vad det innebär med enstaka bildrutor, i ett snabbt flöde av bildrutor. Ingen människa i världen har precision nog att sikta på enskilda bildrutor i ett flöde som är snabbt nog att vara spelbart. En bildruta i 60fps visas i 16.67ms - visuell stimuli tar 20-40ms att nå hjärnan och reaktionstiden är betydligt längre.
Vad som händer om algoritmen gissar för mycket fel är att det blir synbara artefakter i bilden. Det kan vara ett problem men knappast av anledningen du vill få det till.

Permalänk
Medlem
Skrivet av oqvist:

Det ser ju ut exakt så i verkligheten??? Eller menar du att FSR 2 känner av i vilken hastighet du för dig och sänker upplösningen baserat på spelarens hastighet?

Mina erfarenheter av fsr 2 i starfield är att det fungerar exakt sådär tyvärr. Det liret har inget officiellt DLSS stöd men det blev klart bättre med modden iaf. Köra native är naturligtvis oslagbart om man har hästkrafterna. Men FSR 2 känns tveksamt versus traditionell uppskalning ärligt talat. Det känns som något AMD i panik fick rusha ut för att möta DLSS för att få sälja och de har inte hunnit utveckla det till samma nivå än. Om det är mjukvaran eller hårdvaran som sätter stopp eller en kombination vet jag ej

Har själv inte kört starfield, så jag vet inte hur det ser ut i det spelet specifikt. Det stora problemet med FSR är att tekniken inte byter ut spelets egna AA-pipeline (vilket DLSS gör) så kvalitén kan variera i mycket större utsträckning beroende på hur den underliggande renderingen ser ut och dessutom krävs det mer manuell handpåläggning för att bli av med problem som ghosting, occlusion artifacts etc. vilket de flesta utvecklarna verkar skita i.

Min kommentar handlar enbart om hur akademiska jämförelser (likt stillbildsexemplet ovan) inte nödvändigtvis är represantivt för den perceptuella upplevelsen. Själv har jag kört Doom Eternal med FSR2 mod (ser fantastiskt ut) samt Cyberpunk. Implementationen i Cyberpunk blev tyvärr avsevärt mycket sämre när de släppte 1.61 (path-tracing patchen) då introducerade de ghosting i FSR2, och dessutom blev temporal resolve, occlusion artifacts betydligt sämre än i 1.60. Det finns en anti-ghosting FSR2-mod som går över DLSS-pipelinen och den ser 100x bättre än den nuvarande officiella implementationen från CDPR. Man kanske inte ska ta på sig foliehatten, men det är väldigt lägligt att FSR implementationen blev sämre när DLSS3-patchen lanserades.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem
Skrivet av DasIch:

Du pratar gärna om att förstå sig på tekniken men du verkar inte förstå vad det innebär med enstaka bildrutor, i ett snabbt flöde av bildrutor. Ingen människa i världen har precision nog att sikta på enskilda bildrutor i ett flöde som är snabbt nog att vara spelbart. En bildruta i 60fps visas i 16.67ms - visuell stimuli tar 20-40ms att nå hjärnan och reaktionstiden är betydligt längre.
Vad som händer om algoritmen gissar för mycket fel är att det blir synbara artefakter i bilden. Det kan vara ett problem men knappast av anledningen du vill få det till.

Whoa, whoa, whoa! Kom aldrig mellan en gamer och hans uppfattning om att hans övermänskligt skarpa sinnen kräver exakt det den senaste tekniken kan prestera som bäst.

Visa signatur

Bra, snabbt, billigt; välj två.

Ljud
PC → ODAC/O2 → Sennheiser HD650/Ultrasone PRO 900/...
PC → S.M.S.L SA300 → Bowers & Wilkins 607

Permalänk
Medlem
Skrivet av Phod:

Whoa, whoa, whoa! Kom aldrig mellan en gamer och hans uppfattning om att hans övermänskligt skarpa sinnen kräver exakt det den senaste tekniken kan prestera som bäst.

Jag vet, farligt det där. Snart kommer någon som kan pricka enskilda pixlar, i enskilda bildrutor, i 500Hz.

Permalänk
Medlem
Skrivet av DasIch:

Du pratar gärna om att förstå sig på tekniken men du verkar inte förstå vad det innebär med enstaka bildrutor, i ett snabbt flöde av bildrutor. Ingen människa i världen har precision nog att sikta på enskilda bildrutor i ett flöde som är snabbt nog att vara spelbart. En bildruta i 60fps visas i 16.67ms - visuell stimuli tar 20-40ms att nå hjärnan och reaktionstiden är betydligt längre.
Vad som händer om algoritmen gissar för mycket fel är att det blir synbara artefakter i bilden. Det kan vara ett problem men knappast av anledningen du vill få det till.

Hej. Jag anser mig förstå vad det handlar om. Har hållit på med video och grafik så pass länge.

Är du så säker på att du förstått "vad jag vill få det till"? Av ditt svar så blir jag osäker. Felaktig information är just felaktig information, påhittade bildrutor är just påhittade. De påhittade bildrutorna kan ligga nära sanningen, de kan t o m VARA sanningen — med facit i hand. Men du kan inte veta om de är sanningen eller ej just som bildrutan infinner sig. Du får veta det i först i efterhand.

Så, jag själv väljer att inte slå på den här sortens teknik när jag stöter på den. Du får såklart hylla den om du vill.

Det må handla om att få felaktig info i bara några ms men dessa ms betyder också något för en hardcore / elite gamer.

Skrivet av Phod:

Whoa, whoa, whoa! Kom aldrig mellan en gamer och hans uppfattning om att hans övermänskligt skarpa sinnen kräver exakt det den senaste tekniken kan prestera som bäst.

Nog har jag nytta av en ~120 FPS när jag spelar jfm 60fps. Högre än så behöver jag inte för att kunna prestera mitt max i de spel jag gillar. Men jag vill att det jag ser är sant, att det härstammar från själva spelvärlden, inte är framtaget av en gissande algoritm som kommer senare i renderingsprocessen. Är bara så jag tänker kring det hela 👍🏻

Skrivet av DasIch:

Jag vet, farligt det där. Snart kommer någon som kan pricka enskilda pixlar, i enskilda bildrutor, i 500Hz.

Jag förstår inte heller hur det går till när en del menar att de "behöver" dessa vansinnigt höga fps .. för annars kan de inte spela. Måste vara tufft för dem med alla låga fps vi har omkring oss i samhället i stort 😄

Visa signatur

Kontor MacBook Pro 16" M4 Pro, 48GB, 512GB, Predator X38, TB4 dock
UHD ProArt 4070TiS, i5-13600K (U12A), 32GB 3200, Prime Z790 mATX, 2xNVMe, Prime 650 Platinum, Torrent Compact
QHD 1080Ti, i5-8400, ROG B360 mATX, 16GB, 2xSSD, 750W PSU, nåt Fractal-chassi

Permalänk
Medlem
Skrivet av mar3ld:

Hej. Jag anser mig förstå vad det handlar om. Har hållit på med video och grafik så pass länge.

Är du så säker på att du förstått "vad jag vill få det till"? Av ditt svar så blir jag osäker. Felaktig information är just felaktig information, påhittade bildrutor är just påhittade. De påhittade bildrutorna kan ligga nära sanningen, de kan t o m VARA sanningen — med facit i hand. Men du kan inte veta om de är sanningen eller ej just som bildrutan infinner sig. Du får veta det i först i efterhand.

Så, jag själv väljer att inte slå på den här sortens teknik när jag stöter på den. Du får såklart hylla den om du vill.

Det må handla om att få felaktig info i bara några ms men dessa ms betyder också något för en hardcore / elite gamer.

Det har noll praktisk betydelse annat än i fråga om visuella artefakter. Du kan få vara hur hardcore 1337-gamer du vill. Att reagera på enstaka bildrutor i en bildström som kan anses spelbar, övergår all mänsklig förmåga. Det är så långt ifrån mänsklig förmåga att argumentet blir direkt löjeväckande.

Här, du kan prova pausa videon direkt när den extra bildrutan dyker upp. Det är en bildruta som kopierats från ett ställe och lagts in på ett annat, så den ligger både fel och är duplicerad. Videon är 24fps. Det är alltså 41.666ms per bildruta.
https://youtu.be/3XxhvTjFHqE

Bryr man sig om precision och respons spelar man inte i 24fps. Tiden för varje bildruta kan i praktiken antas vara betydligt kortare. Det är inte heller "påhittade" bildrutor som sätts in, utan interpolerade. Felen som uppstår har noll betydelse annat än rent visuellt.

Permalänk
Medlem
Skrivet av mar3ld:

Hej. Jag anser mig förstå vad det handlar om. Har hållit på med video och grafik så pass länge.

Är du så säker på att du förstått "vad jag vill få det till"? Av ditt svar så blir jag osäker. Felaktig information är just felaktig information, påhittade bildrutor är just påhittade. De påhittade bildrutorna kan ligga nära sanningen, de kan t o m VARA sanningen — med facit i hand. Men du kan inte veta om de är sanningen eller ej just som bildrutan infinner sig. Du får veta det i först i efterhand.

Så, jag själv väljer att inte slå på den här sortens teknik när jag stöter på den. Du får såklart hylla den om du vill.

Det må handla om att få felaktig info i bara några ms men dessa ms betyder också något för en hardcore / elite gamer.

Nog har jag nytta av en ~120 FPS när jag spelar jfm 60fps. Högre än så behöver jag inte för att kunna prestera mitt max i de spel jag gillar. Men jag vill att det jag ser är sant, att det härstammar från själva spelvärlden, inte är framtaget av en gissande algoritm som kommer senare i renderingsprocessen. Är bara så jag tänker kring det hela 👍🏻

Jag förstår inte heller hur det går till när en del menar att de "behöver" dessa vansinnigt höga fps .. för annars kan de inte spela. Måste vara tufft för dem med alla låga fps vi har omkring oss i samhället i stort 😄

Jag är ledsen, men just det problem du beskriver är inte det du kommer att märka av vid en dålig interpolering. När du spelar ett spel kommer du inte att ha någon som helst information om enskilda bildrutor. Troligtvis har du aldrig pausat en digital video och sett hur mycket "fel" i bilden den temporala aspekten döljer.

Det verkar som att du gör något slags antagande att de interpolerade bildrutorna kan vara hur fel som helst, så att du under några millisekunder fattar fel beslut och klickar på fel ställe. Men det är inte så att interpolationsalgoritmen kommer att placera fienden uppe i högra hörnet, positionen kommer att vara ungefär den samma som om bildrutan hade genererats på vanlig väg.

Jag är helt med på att interpolation kan, som Dasich skrev, ge upphov till artefakter i bilden som stör upplevelse. Men det du påstår är ju bara pseudotekniskt svammel. Det verkar som att du har hakat upp dig på att information är "påhittad".

Visa signatur

Bra, snabbt, billigt; välj två.

Ljud
PC → ODAC/O2 → Sennheiser HD650/Ultrasone PRO 900/...
PC → S.M.S.L SA300 → Bowers & Wilkins 607

Permalänk
Medlem
Skrivet av DasIch:

Det har noll praktisk betydelse annat än i fråga om visuella artefakter. Du kan få vara hur hardcore 1337-gamer du vill. Att reagera på enstaka bildrutor i en bildström som kan anses spelbar, övergår all mänsklig förmåga. Det är så långt ifrån mänsklig förmåga att argumentet blir direkt löjeväckande.

Här, du kan prova pausa videon direkt när den extra bildrutan dyker upp. Det är en bildruta som kopierats från ett ställe och lagts in på ett annat, så den ligger både fel och är duplicerad. Videon är 24fps. Det är alltså 41.666ms per bildruta.
https://youtu.be/3XxhvTjFHqE

Bryr man sig om precision och respons spelar man inte i 24fps. Tiden för varje bildruta kan i praktiken antas vara betydligt kortare. Det är inte heller "påhittade" bildrutor som sätts in, utan interpolerade. Felen som uppstår har noll betydelse annat än rent visuellt.

Håller fullständigt med om att man inte kan reagera hur snabbt som helst, att det till slut blir orimligt att tänka att en människa kan ha nytta av snabbade FPS. Du har absolut rätt i detta anser jag.

Men med all respekt:
Jag upplever att du tappat fokuset kring vad det är jag kommenterar i första hand. Jag påstår inte att man ska reagera på några få ms. Jag menar däremot att den information man får till sig genom bildskärmen gör att hjärnan kan börja processa det hela, så att man till slut kan få till en reaktion. Om det kommer delvis påhittad information till hjärnan, hur kan man då förvänta sig att man alltid baserar sina beslut på rätt underlag?

Jag har inte påstått att just JAG är denna elite gamer, men för de som är det förstår jag mycket väl varför de inte vill ha någon påhittad grafik till sina ögon. De flesta elite vill inte ens vänta på retraceinteruptet förtusan och stänger av v- / g- / f-sync.

Du avslutar med att bekräfta det jag vill ha sagt: Tekniken påverkar det visuella med en gissning utifrån hur det brukar vara. Och då menar jag bara att det inte är detsamma som hur det faktiskt är.

Vi är väl egentigen överrens, eller?

Skrivet av Phod:

Jag är ledsen, men just det problem du beskriver är inte det du kommer att märka av vid en dålig interpolering. När du spelar ett spel kommer du inte att ha någon som helst information om enskilda bildrutor. Troligtvis har du aldrig pausat en digital video och sett hur mycket "fel" i bilden den temporala aspekten döljer.

Det verkar som att du gör något slags antagande att de interpolerade bildrutorna kan vara hur fel som helst, så att du under några millisekunder fattar fel beslut och klickar på fel ställe. Men det är inte så att interpolationsalgoritmen kommer att placera fienden uppe i högra hörnet, positionen kommer att vara ungefär den samma som om bildrutan hade genererats på vanlig väg.

Jag är helt med på att interpolation kan, som Dasich skrev, ge upphov till artefakter i bilden som stör upplevelse. Men det du påstår är ju bara pseudotekniskt svammel. Det verkar som att du har hakat upp dig på att information är "påhittad".

Du antar alltså att jag aldrig pausat en digital video, eller att jag skulle sakna det kritiska ögat för att uppmärksamma artefakter / mpeg-komprimering? Men hallå? 😄 Varför tror du att jag hänger i tråden och bekymrar mig över utvecklingen med påhittad grafik öht? Skärp dig 😜

Är vi åtminstone överens om att tekniken vi pratar om i den här tråden medför att en process separat från själva spelvärlden fyller i med information som den anser brukar stämma in på vad som syns där, baserat på hur det sett ut många andra gånger — t ex i andra spel .. att det trots allt handlar om en gissning — än om den är korrekt kanske 99% av gångerna?

Visa signatur

Kontor MacBook Pro 16" M4 Pro, 48GB, 512GB, Predator X38, TB4 dock
UHD ProArt 4070TiS, i5-13600K (U12A), 32GB 3200, Prime Z790 mATX, 2xNVMe, Prime 650 Platinum, Torrent Compact
QHD 1080Ti, i5-8400, ROG B360 mATX, 16GB, 2xSSD, 750W PSU, nåt Fractal-chassi

Permalänk
Medlem
Skrivet av mar3ld:

Håller fullständigt med om att man inte kan reagera hur snabbt som helst, att det till slut blir orimligt att tänka att en människa kan ha nytta av snabbade FPS. Du har absolut rätt i detta anser jag.

Men med all respekt:
Jag upplever att du tappat fokuset kring vad det är jag kommenterar i första hand. Jag påstår inte att man ska reagera på några få ms. Jag menar däremot att den information man får till sig genom bildskärmen gör att hjärnan kan börja processa det hela, så att man till slut kan få till en reaktion. Om det kommer delvis påhittad information till hjärnan, hur kan man då förvänta sig att man alltid baserar sina beslut på rätt underlag?

Jag har inte påstått att just JAG är denna elite gamer, men för de som är det förstår jag mycket väl varför de inte vill ha någon påhittad grafik till sina ögon. De flesta elite vill inte ens vänta på retraceinteruptet förtusan och stänger av v- / g- / f-sync.

Du avslutar med att bekräfta det jag vill ha sagt: Tekniken påverkar det visuella med en gissning utifrån hur det brukar vara. Och då menar jag bara att det inte är detsamma som hur det faktiskt är.

Vi är väl egentigen överrens, eller?

Du antar alltså att jag aldrig pausat en digital video, eller att jag skulle sakna det kritiska ögat för att uppmärksamma artefakter / mpeg-komprimering? Men hallå? 😄 Varför tror du att jag hänger i tråden och bekymrar mig över utvecklingen med påhittad grafik öht? Skärp dig 😜

Är vi åtminstone överens om att tekniken vi pratar om i den här tråden medför att en process separat från själva spelvärlden fyller i med information som den anser brukar stämma in på vad som syns där, baserat på hur det sett ut många andra gånger — t ex i andra spel .. att det trots allt handlar om en gissning — än om den är korrekt kanske 99% av gångerna?

All grafik är ju baserad på gissningar... Gpu'n tolkar parametrar och visar bild. Dlss använder tensor för att bearbeta detta snabbare genom att beräkna hur bilden ser ut snabbare än vad gpu'n råa beräkningskraft kan..

Var ju någon på forumet som visade native vs dlss i tlou där native saknade detaljer i spelet.

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av mar3ld:

Håller fullständigt med om att man inte kan reagera hur snabbt som helst, att det till slut blir orimligt att tänka att en människa kan ha nytta av snabbade FPS. Du har absolut rätt i detta anser jag.

Men med all respekt:
Jag upplever att du tappat fokuset kring vad det är jag kommenterar i första hand. Jag påstår inte att man ska reagera på några få ms. Jag menar däremot att den information man får till sig genom bildskärmen gör att hjärnan kan börja processa det hela, så att man till slut kan få till en reaktion. Om det kommer delvis påhittad information till hjärnan, hur kan man då förvänta sig att man alltid baserar sina beslut på rätt underlag?

Jag har inte påstått att just JAG är denna elite gamer, men för de som är det förstår jag mycket väl varför de inte vill ha någon påhittad grafik till sina ögon. De flesta elite vill inte ens vänta på retraceinteruptet förtusan och stänger av v- / g- / f-sync.

Du avslutar med att bekräfta det jag vill ha sagt: Tekniken påverkar det visuella med en gissning utifrån hur det brukar vara. Och då menar jag bara att det inte är detsamma som hur det faktiskt är.

Vi är väl egentigen överrens, eller?

Enda sättet det kan bli ett problem är om det uppstår visuella artefakter som stör bilden. Och det kommer se ut som skit långt innan någon mytomspunnen 1337-gamer får problem. Ser det bra ut så är det bra. Spelar ingen som helst roll om så varje bildruta är framtrollad av Gargamel.

Permalänk
Medlem
Skrivet av Swedishchef_90:

All grafik är ju baserad på gissningar... Gpu'n tolkar parametrar och visar bild. Dlss använder tensor för att bearbeta detta snabbare genom att beräkna hur bilden ser ut snabbare än vad gpu'n råa beräkningskraft kan..

Var ju någon på forumet som visade native vs dlss i tlou där native saknade detaljer i spelet.

Jag skulle bestämt hävda att detta är ett felaktigt påstående. Traditionell datorgrafik är baserad på existerande data och är så långt bort från "gissningar" och "tolkningar" som det går att komma.

DLSS däremot gissar, den extrapolerar från bristfällig ursprungsdata och skapar ny data som inte existerar, för att fylla i det som saknas.

Visa signatur

| Corsair Obsidian 500D | Intel Xeon E5-1680 v2 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Rampage IV Black Edition | G.Skill Sniper 4x8GB 2133MHz CL10 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | DELL P991 Trinitron | Windows XP/10 Dual-Boot |

Permalänk
Medlem
Skrivet av Alexraptor:

Jag skulle bestämt hävda att detta är ett felaktigt påstående. Traditionell datorgrafik är baserad på existerande data och är så långt bort från "gissningar" och "tolkningar" som det går att komma.

DLSS däremot gissar, den extrapolerar från bristfällig ursprungsdata och skapar ny data som inte existerar, för att fylla i det som saknas.

Alla gpuer läser av en datan med hjälp av en algoritm? Det betyder att den tolkar datan som finns? Då den behöver någon form av "nyckel" för att läsa den?

Det är ju därför Arc fungerade så kasst för Starfield, då dem inte följde standard "nyckeln"

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

All grafik är ju baserad på gissningar... Gpu'n tolkar parametrar och visar bild. Dlss använder tensor för att bearbeta detta snabbare genom att beräkna hur bilden ser ut snabbare än vad gpu'n råa beräkningskraft kan..

Var ju någon på forumet som visade native vs dlss i tlou där native saknade detaljer i spelet.

Jaha du, det var ju också ett sätt att utrycka det på 😄
Med ditt liberala ordval låter det som speltillverkarna kanske skulle överväga att låta DLSS få ta och generera grafiken helt på egen hand, så skulle vi få en massa FPS då denna gör det så mkt snabbare. Strunta i spelvärlden och generera bildrutor för hur spel brukar se ut. Det kan ju bli rätt ibland iaf. 😂

Skrivet av DasIch:

Enda sättet det kan bli ett problem är om det uppstår visuella artefakter som stör bilden. Och det kommer se ut som skit långt innan någon mytomspunnen 1337-gamer får problem. Ser det bra ut så är det bra. Spelar ingen som helst roll om så varje bildruta är framtrollad av Gargamel.

Jag tar ditt svar som att vi två inte kan komma överens. Tack för diskussionen.

Skrivet av Alexraptor:

Jag skulle bestämt hävda att detta är ett felaktigt påstående. Traditionell datorgrafik är baserad på existerande data och är så långt bort från "gissningar" och "tolkningar" som det går att komma.

DLSS däremot gissar, den extrapolerar från bristfällig ursprungsdata och skapar ny data som inte existerar, för att fylla i det som saknas.

Ja, det är så jag med förstått att det fungerar. Men vad vet vi? De andra verkar ha en annan bild av hur det hela ligger till.

Skrivet av Swedishchef_90:

Alla gpuer läser av en datan med hjälp av en algoritm? Det betyder att den tolkar datan som finns? Då den behöver någon form av "nyckel" för att läsa den?

Det är ju därför Arc fungerade så kasst för Starfield, då dem inte följde standard "nyckeln"

Ja du, vad vet jag? Du låter som en expert på detta med GPUer. Kan vara jag som missförstått allt.

Visa signatur

Kontor MacBook Pro 16" M4 Pro, 48GB, 512GB, Predator X38, TB4 dock
UHD ProArt 4070TiS, i5-13600K (U12A), 32GB 3200, Prime Z790 mATX, 2xNVMe, Prime 650 Platinum, Torrent Compact
QHD 1080Ti, i5-8400, ROG B360 mATX, 16GB, 2xSSD, 750W PSU, nåt Fractal-chassi

Permalänk
Medlem
Skrivet av mar3ld:

Jaha du, det var ju också ett sätt att utrycka det på 😄
Med ditt liberala ordval låter det som speltillverkarna kanske skulle överväga att låta DLSS få ta och generera grafiken helt på egen hand, så skulle vi få en massa FPS då denna gör det så mkt snabbare. Strunta i spelvärlden och generera bildrutor för hur spel brukar se ut. Det kan ju bli rätt ibland iaf. 😂

Jag tar ditt svar som att vi två inte kan komma överens. Tack för diskussionen.

Ja, det är så jag med förstått att det fungerar. Men vad vet vi? De andra verkar ha en annan bild av hur det hela ligger till.

Ja du, vad vet jag? Du låter som en expert på detta med GPUer. Kan vara jag som missförstått allt.

Nu håller jag inte på med datorgrafik men som jag förstår det så...
Spelvärlden skickar data som gpu'n skall tolka till hur varje pixel skall sättas med ljus etc . Detta sätts i en "kö".
Detta görs via en algoritm som tolkar infon från spelvärlden.

Titta på Intels kort i Starfield, samma som skall ge färg blir svart blinkande (se swec video). Om detta inte är en tolkning av data så borde de båda ge samma bild?

Uppskalning är framtiden då gpuer har stagnerat i utveckling

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Hedersmedlem
Skrivet av Swedishchef_90:

Uppskalning är framtiden då gpuer har stagnerat i utveckling

Nog är risken stor att det stagnerar rejält, men det har väl knappast hänt redan -- mer att priserna skenat iväg.
Snabbaste GPUn 2022 är 75% snabbare än snabbaste GPUn 2020 (RTX 3090).
Snabbaste GPUn 2020 är 52% snabbare än snabbaste GPUn 2018 (RTX 2080 Ti).

2.66x mer prestanda på 4 år är väl inte riktigt stagnering i mina ögon. Men visst, prestanda/krona var ingen höjdare för 40-serien.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Nog är risken stor att det stagnerar rejält, men det har väl knappast hänt redan -- mer att priserna skenat iväg.
Snabbaste GPUn 2022 är 75% snabbare än snabbaste GPUn 2020 (RTX 3090).
Snabbaste GPUn 2020 är 52% snabbare än snabbaste GPUn 2018 (RTX 2080 Ti).

2.66x mer prestanda på 4 år är väl inte riktigt stagnering i mina ögon.

Sen ska man inte heller glömma bra förbättringar i energieffektivitet.

Permalänk
Medlem
Skrivet av Alexraptor:

Jag skulle bestämt hävda att detta är ett felaktigt påstående. Traditionell datorgrafik är baserad på existerande data och är så långt bort från "gissningar" och "tolkningar" som det går att komma.

DLSS däremot gissar, den extrapolerar från bristfällig ursprungsdata och skapar ny data som inte existerar, för att fylla i det som saknas.

Kön är redan satt långt i förväg dlss tolkar pixlkön och ger extra frames baserad på redan satt info.
Det är inte en "bristfällig ursprungsdata", den tolkar redan satt data

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

Nu håller jag inte på med datorgrafik men som jag förstår det så...
Spelvärlden skickar data som gpu'n skall tolka till hur varje pixel skall sättas med ljus etc . Detta sätts i en "kö".
Detta görs via en algoritm som tolkar infon från spelvärlden.

Titta på Intels kort i Starfield, samma som skall ge färg blir svart blinkande (se swec video). Om detta inte är en tolkning av data så borde de båda ge samma bild?

Uppskalning är framtiden då gpuer har stagnerat i utveckling

GPUer verkar inte ha stagnerat i utveckling. Du har nog helt fel på den punkten. Källa på det läser jag på Wikipedia t ex:
3090Ti fillrate 175 / 524 vs 4090 fillrate 393 / 1142. Det är en väsentlig skillnad i prestanda.

Du öppnar däremot detta inlägg mycket trevligare än tidigare genom att börja med att erkänna att du inte håller på med datorgrafik — vilket då öppnar för att du kanske inte har rätt i allt du skriver om. Jag tycker sånt är en sund inställning när man ger sig in i diskussioner man intresserar sig för men kanske inte är så påläst om. Bättre det än att komma dragandes med något som ser ut som fakta men som egentligen är påhittat av en själv. 👍🏻

Jag hoppas att uppskalning inte är framtiden. Skulle tycka SÅ synd om framtida generationer om deras bild av sanningen skulle baseras mer och mer på gissningar. Jag hoppas att detta bara är en brygga till nästa tekniska framsteg.

Visa signatur

Kontor MacBook Pro 16" M4 Pro, 48GB, 512GB, Predator X38, TB4 dock
UHD ProArt 4070TiS, i5-13600K (U12A), 32GB 3200, Prime Z790 mATX, 2xNVMe, Prime 650 Platinum, Torrent Compact
QHD 1080Ti, i5-8400, ROG B360 mATX, 16GB, 2xSSD, 750W PSU, nåt Fractal-chassi

Permalänk
Medlem
Skrivet av mar3ld:

GPUer verkar inte ha stagnerat i utveckling. Du har nog helt fel på den punkten. Källa på det läser jag på Wikipedia t ex:
3090Ti fillrate 175 / 524 vs 4090 fillrate 393 / 1142. Det är en väsentlig skillnad i prestanda.

Du öppnar däremot detta inlägg mycket trevligare än tidigare genom att börja med att erkänna att du inte håller på med datorgrafik — vilket då öppnar för att du kanske inte har rätt i allt du skriver om. Jag tycker sånt är en sund inställning när man ger sig in i diskussioner man intresserar sig för men kanske inte är så påläst om. Bättre det än att komma dragandes med något som ser ut som fakta men som egentligen är påhittat av en själv. 👍🏻

Jag hoppas att uppskalning inte är framtiden. Skulle tycka SÅ synd om framtida generationer om deras bild av sanningen skulle baseras mer och mer på gissningar. Jag hoppas att detta bara är en brygga till nästa tekniska framsteg.

Uppskalarna har ju använts sedan PS 2? Alla konsoler kör uppskalare. Så länge folk vill ha konsoler, så är uppskalarna framtiden.

Konsoler är inget annat än specialtillverkade PC, och de skapar inte magi med samma hårdvara.

Uppskalning och interpolation av frames är framtiden, hade det inte gett så mycket latency påslag så hade de aldrig sagt att det ens implementerades.

DLSS tolkar nuvarande och framtida pixel info och sätter bilden. De skapar inget ur tomma intet som vissa tror... Och även om de skulle missa så skulle ingen märka det på en frame...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Thomas:

Nog är risken stor att det stagnerar rejält, men det har väl knappast hänt redan -- mer att priserna skenat iväg.
Snabbaste GPUn 2022 är 75% snabbare än snabbaste GPUn 2020 (RTX 3090).
Snabbaste GPUn 2020 är 52% snabbare än snabbaste GPUn 2018 (RTX 2080 Ti).

2.66x mer prestanda på 4 år är väl inte riktigt stagnering i mina ögon. Men visst, prestanda/krona var ingen höjdare för 40-serien.

Topp korten, ja.
Resten är väl relativt obefintlig?

Rx7800 xt =6800xt är ju inom 10% (6fps snitt mellan dem)
4070 och 3070 är väl 25%
3060 ti = 4060 ti

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

Uppskalarna har ju använts sedan PS 2? Alla konsoler kör uppskalare. Så länge folk vill ha konsoler, så är uppskalarna framtiden.

Konsoler är inget annat än specialtillverkade PC, och de skapar inte magi med samma hårdvara.

Uppskalning och interpolation av frames är framtiden, hade det inte gett så mycket latency påslag så hade de aldrig sagt att det ens implementerades.

DLSS tolkar nuvarande och framtida pixel info och sätter bilden. De skapar inget ur tomma intet som vissa tror... Och även om de skulle missa så skulle ingen märka det på en frame...

Oj, nu skriver du sådär definitivt igen. Det är nog lätt för en utomstående att få intrycket att du har kött på benen men för mig låter du inte riktigt trovärdig när du utrycker dig på det sättet. Om du erkänner vad du vet och vad du gissar kring så har du lättare att fånga min uppmärksamhet.

Visa signatur

Kontor MacBook Pro 16" M4 Pro, 48GB, 512GB, Predator X38, TB4 dock
UHD ProArt 4070TiS, i5-13600K (U12A), 32GB 3200, Prime Z790 mATX, 2xNVMe, Prime 650 Platinum, Torrent Compact
QHD 1080Ti, i5-8400, ROG B360 mATX, 16GB, 2xSSD, 750W PSU, nåt Fractal-chassi

Permalänk
Medlem
Skrivet av mar3ld:

Oj, nu skriver du sådär definitivt igen. Det är nog lätt för en utomstående att få intrycket att du har kött på benen men för mig låter du inte riktigt trovärdig när du utrycker på det sättet. Om du erkänner vad du vet och vad du gissar kring så har du lättare att fånga min uppmärksamhet.

Vad vill du ha info om? Att konsoler använder uppskalarna?
Att dlss använder AI för att bygga frames mellan redan satt data?

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop