Digital Foundry tar en första titt på DLSS 3

Permalänk
Medlem
Skrivet av rymdriddaren:

Asså DLSS 3 låter ju nästan som någon form av fpsglädemätarskapare. Vi slänger in hyffsade bakade frames som man ibland kan lägga märke till men inte alltid gör det för att pumpa upp fpsnumret så vi kan säga "kolla va snabbt vårat kort är"

Hur menar du? Såg mer eller mindre ut som att du kunde få till väldigt märkbart förbättad animation och flyt i tyngre drivna titlar med frame generation, utan någon vidare större bakdel än vanlig DLSS. I lägen där du redan har högre fps än du behöver så visst. Extra latens kan såklart vara ett problem, skulle skilja sig från titel till titel så återstår väl att se om det är värt det.

Permalänk
Medlem
Skrivet av employed:

De pratar inget om de negativa aspekterna av DLSS3.0, ifrågasätter inte varför tex inte RTX3000-serien kommer få det, kvalitén på bilden, e-sportaspekten, 1 och 0.1% i FPS, hackande skärmar mm. Sånt som de brukar prata om när de testar spel i vanliga fall. Men här är allt bara guld och gröna skogar. Inte ens frågetecken tas upp. Tråkigt.

Att det inte kommer till 3000-serien har de tagit upp i en DF Direct, esport tog de upp när de pratade länder, bildkvalitet går ju att använda ögonen till (tyckte personligen att det såg rätt bra ut, lär ju märkas ännu mindre när man spelar), FPS är menlöst att prata om när de är under NDA och inte får prata om det. Stuttering nämndes också, men kommer inte ihåg vad de sa.

Vad stoppar AMD från att skicka kort i förväg till DF för att visa deras tekniker?

Visa signatur

i7-10700K + Corsair H90 | Z490 | 64GB | RTX3080 | SSD 3*512GB + 500GB + 128GB | HDD 3TB | Phanteks P400S | TUF 750W | 31.5"+27"+24" | Corsair K95 RGB | Logitech G902 | Sennheiser RS 175

Permalänk
Medlem

Handen på hjärtat, hur många av er har kollat igenom DFs video?

Tycker det framgår rätt tydligt att man är intresserad av att analysera tekniken i sig.
DF skulle göra exakt likadant om Intel eller AMD lanserat kort med ny funktionalitet.

När jag kollade på videon satt jag och väntade på att man skulle tala om negativa aspekter av tekniken och mycket riktigt så pratades det om det.

Visa signatur

Corsair 5000D | PRIME X670E-PRO | 7800X3D |
Kingston Fury Beast DDR5 2x16GB @6000MT/s CL30-40-40-28 | TUF RTX 4090 | 2 * 2TB WD Black SN850X PCI-E 4 |

Permalänk
Medlem
Skrivet av Gurrrra:

Men om det nu är så att man i spelens grafikinställningar kan stänga av uppskalningen men fortarande ha interpoleringen igång så spelar det precis all roll. Jag ser inte varöfr man inte skulle kunna köra så så därför ska man inte heller testa det på nåt annat sätt heller.

Det bygger på rörelsevektorer från vanlig DLSS så det går inte att köra utan uppskalningen. Anledningen till att det finns två alternativ i grafikinställningarna är för att nya kort inte klarar DLSS 3.

Permalänk
Medlem

Kan folk lugna sig lite med sitt auto-dissande av detta? Det verkar redan ha både mindre latency och ha mycket mindre artifakter jämfört med traditionell interpolering som vi har i TV-apparaterna.

Såklart kommer det i slutändan vara en avvägning mellan fördelar och nackdelar precis som vanligt.

Är grafiken på "High" i ett spel värt lägre framerate och därmed ökad input lag jämfört med grafiken på "Low"?
Är det värt att köra V-sync för att slippa tearing på bekostnad av input lag?
Är 120 FPS med interpolering bättre än 60 FPS?
Osv.
Man får prova och avgöra själv.

Sen är jag personligen otroligt trött på allt som har det uttjatade "AI" med i namnet men man får ha två tankar i huvudet samtidigt.

Permalänk
Medlem
Skrivet av DasIch:

Det bygger på rörelsevektorer från vanlig DLSS så det går inte att köra utan uppskalningen. Anledningen till att det finns två alternativ i grafikinställningarna är för att nya kort inte klarar DLSS 3.

Motion vectors, depth buffer osv renderas oftas oavsett om nån DLSS körs eller inte, används bl a för att generera motion blur, DoF o annat. Dessutom vet varken du eller jag om det går att köra interpolering utan uppskalning, men det vore som sagt konstigt om det inte gick. Min gissning är att DF helt enkelt inte valde att visa det.
Men istället för att vi tjafsar fram o tillbaks så får vi helt enkelt vänta på mer info o fler test helt enkelt

Permalänk
Medlem
Skrivet av medbor:

För att generera dessa mellanliggande bilder krävs en färdig ny bildruta. Varför inte bara visa den?

Den har redan visats! Det här har ingenting med den interpolation på gamla tv-apparater som du pratar om. Det är motion vectors och machine learning som används för att skapa nya bildrutor. Du måste läsa på hur DLSS (alla versioner) fungerar.

Edit: Herregud, hur många är det här som inte har kollat på videon så ni faktiskt förstår hur tekniken fungerar?

Permalänk
Medlem
Skrivet av employed:

De pratar inget om de negativa aspekterna av DLSS3.0, ifrågasätter inte varför tex inte RTX3000-serien kommer få det, kvalitén på bilden, e-sportaspekten, 1 och 0.1% i FPS, hackande skärmar mm. Sånt som de brukar prata om när de testar spel i vanliga fall. Men här är allt bara guld och gröna skogar. Inte ens frågetecken tas upp. Tråkigt.

Du har ju i huvud taget inte sett videon. Det kan du inte ha gjort.

Väldigt mkt märkliga inlägg i denna tråd. Det är inte utan att man ifrågasätter folks förmåga att förstå vad de tittar på (om de ens tittar, som sagt).

DF klargör redan under första minuten att presentationen är begränsad. 40-serien är fortfarande under NDA men Nvidia har, uppenbarligen, här gett DF tillåtelse att delvis bryta mot denna. Vad som får sägas och för vilka titlar är förstås styrt av Nvidia. Men enl gnällspikarna här är det alltså DFs fel?

Dessutom, det hade rent faktiskt varit MYCKET mer misstänkt, "köpt" om man så vill, om Nvidia hade gett DF fritt fram när alla andra ligger under NDA. Så de som klagar på att DF inte berättar lika mkt som de brukar har inte tänkt till riktigt.

Det är ganska uppenbart vad Nvidia vill få ut av detta (förutom att hålla uppe buzzet/hypen, såklart). De vill att någon 3e part ska förklara vad DLSS3 är(och faktiskt, även vad det inte är). Och få gör den här typen av förklaringar/utbildningar så bra som DF så det är inte direkt överraskande att valet föll på dem. Det är inte första gången. MS hade samma taktik inför lanseringen av Series X t.ex (och givetvis var DF även då såååå köpta). Och DF får exclusive content, vore tjänstefel av dem att inte nappa på den bollen.

Detta är en utmärkt video av DF - inom ramen för de begränsningar som ligger till grund för att DF ska få göra den i huvud taget.

Men för att återgå till employeds inlägg här. Videon förklarar väldigt tydligt vari DLSS3s begränsningar ligger. Inte minst vid CPU-begränsade scenarion och att problem här faktiskt blir "amplified". Samtidigt som det faktiskt frikopplar "FPS ut" från CPU:ns begränsningar, vilket även kan ha sina fördelar i vissa fall.

Att kvalitén på den DL-genererade bilden inte är felfri framgår oxå väldigt tydligt (och även att den genererade bilden är förhållandevis bra – det här med att interpolera fram frames är ju som sagt inget nytt i sig) . Att ”FPS vinsten” varierar med titel (och även inom titel), och varför det är så, framgår också.

Att input lag försämras (ijmf med enbart DLSS2-rendering) framgår också tydligt. Och att försämringen varierar med titel, av olika skäl. Vidare framkommer Richs tyckande här, han tror inte på DLSS3 för respons-kritiska titlar – esport inte minst (men Nvidia betalade förstås Rich för att säga så…ehh).

Konsekvensen av såväl kvalitén på genererad bild och även ökad inputlag diskuteras oxå. Det finns trots allt omständigheter som gör att det kanske inte är fullt så allvarligt som man spontant kanske först tror.

Ömsom vin, ömsom vatten således. Som det ska va.

(Ang avsaknad av DLSS3 på 30-serien så tas det inte upp i detta klipp. Men det har tagits upp i DF Direct. Och till skillnad från gnällspikarna ("det är enbart pga nvidias greeeed") så har de iaf valida tekniska argument till eventuellt varför så inte är fallet)

Vidare förklarar man vad kanske huvudsyftet med DLSS3 är. Och det här tycks folk ha väldigt svårt att begripa. Syftet med DLSS3 är att skapa "en bättre matchning av signal mot display”. Mot high-end displayer som är kapabla till hög refresh-rate. För att nyttja displayer till max, för att kringgå displaytypiska svagheter om man så vill, så behöver nämligen displayen matas med ny information i en hög frekvens. Allt handlar om helhetsupplevelsen. Och skärmen är i högsta grad en delmängd i detta. Det här är Nvidias ”take” på att försöka åstadkomma en så bra helhetsupplevelse som möjligt.

För att klargöra: Nvidia är inget vitt lamm och de gör en hel del dumheter. Jag själv har sågat dem ut efter fotknölarna efter hur de brukar ordet "performance", t.ex. Och 4080-priserna är ett rent hån mot den hand som föder dem. Etc. Inte heller DF är felfria. Så absolut, möt påståenden med skepsis och förstå att dessa påståenden ofta är inom en viss begränsad kontext (det här har många svårt för, vilket ofta leder till besvikelser).

Men ändå, tagga ner på cynismen Swec. Allt som produceras på internet (som inte enbart är gnäll/kritik mot företag och/eller deras produkter) är inte alltid enbart ondska.

Permalänk
Medlem
Skrivet av Maereng:

Den har redan visats! Det här har ingenting med den interpolation på gamla tv-apparater som du pratar om. Det är motion vectors och machine learning som används för att skapa nya bildrutor. Du måste läsa på hur DLSS (alla versioner) fungerar.

Edit: Herregud, hur många är det här som inte har kollat på videon så ni faktiskt förstår hur tekniken fungerar?

Du behöver nog titta igen, denna teknik genererar bilder mellan två renderade rutor, inte in i framtiden

Se videon ovan, timestamp och allt

Permalänk
Medlem

Folk måste sluta jämföra DLSS3 latency med native upplösning. Det ska jämföras med DLSS2 vilket DLSS3 ändå använder som uppskalningsteknik. Poängen med högre fps i spel är lägre latency annars skulle folk klaga något enormt på hur "laggiga" filmer är. Om DLSS3 har högre latency än DLSS2 även med högre "framerate" så är det än nästintill meningslös teknologi.

Permalänk
Skrivet av Saagaa:

Folk måste sluta jämföra DLSS3 latency med native upplösning. Det ska jämföras med DLSS2 vilket DLSS3 ändå använder som uppskalningsteknik. Poängen med högre fps i spel är lägre latency annars skulle folk klaga något enormt på hur "laggiga" filmer är. Om DLSS3 har högre latency än DLSS2 även med högre "framerate" så är det än nästintill meningslös teknologi.

Precis. Enda gången det vore användbart är när man har jättelåg fps, men då har man redan så hög latens att det inte är spelbart iaf. Det sista man vill göra då är ju att höja latensen ännu mer med interpolering.

DLSS 3.0 är inget annat än ett marknadsföringsknep, ett väldigt lyckat sådant om man läser den här tråden.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem
Skrivet av Saagaa:

Poängen med högre fps i spel är lägre latency annars skulle folk klaga något enormt på hur "laggiga" filmer är.

Det finns även andra poänger med högre (fake) fps, som videon påpekar.

Men ja, syftet med DLSS3 är inte att minska input lag. Om nån nu trodde det. Syftet är att behaga ögat, snarare än hjärnan och händerna, skulle man kanske kunna säga.

Varför folk i huvud taget skulle klaga på "lagg" vid konsumtion av icke-interaktiv media som film hängde jag dock inte riktigt med på?

Permalänk
Medlem
Skrivet av medbor:

Du behöver nog titta igen, denna teknik genererar bilder mellan två renderade rutor, inte in i framtiden

https://www.youtube.com/watch?v=6pV93XhiC1Y&t=240

Se videon ovan, timestamp och allt

Tack, inte samma förklaring jag fick från en annan video, men stämmer bättre med vad som står på nvidias hemsida.
Antar latensen minskar pga DLSS uppskalningen då det är billigare att göra en 1080p + uppskalning bild än native 4k.
Hade velat se skillnad på vanlig blending och deras ai frame. DLSS skapar konstiga artifakter, några av stillbilderna såg riktigt risiga ut.

Visa signatur

How do 'Do Not Walk on the Grass' signs get there ?

Permalänk
Medlem
Skrivet av Dyluck:

Tack, inte samma förklaring jag fick från en annan video, men stämmer bättre med vad som står på nvidias hemsida.
Antar latensen minskar pga DLSS uppskalningen då det är billigare att göra en 1080p + uppskalning bild än native 4k.
Hade velat se skillnad på vanlig blending och deras ai frame. DLSS skapar konstiga artifakter, några av stillbilderna såg riktigt risiga ut.

Och även det finns i videon, och då bör det poängteras att t ex topaz (som är en väldigt vanlig leverantör för denna typ av efterbehandling) är betydligt mer avancerad är något som körs i realtid på tv-apperater.

Permalänk
Medlem
Skrivet av Dyluck:

Tack, inte samma förklaring jag fick från en annan video, men stämmer bättre med vad som står på nvidias hemsida.
Antar latensen minskar pga DLSS uppskalningen då det är billigare att göra en 1080p + uppskalning bild än native 4k.
Hade velat se skillnad på vanlig blending och deras ai frame. DLSS skapar konstiga artifakter, några av stillbilderna såg riktigt risiga ut.

Precis reflex + dlss2 sänker latens, dlss3 ökar flyt men försämrar latensen lite

Permalänk
Medlem
Skrivet av Söderbäck:

Jag vet inte.
Det här är gammal teknik som länge hetat interpolering.
Att kalla interpolering för AI generated frames... ja då har du antagligen redan den fräcka AIn i plattTVn du köpte för 12 år sedan som du redan kört till tippen med.

Jag är inte emot att använda interpoleringen däremot. Jag kan absolut se vinsten i att offra några millisekunders latens för att dubbla frameraten. Säkert en väldigt trevlig tradeoff för lite långsammare spel.
Det är nog mer marknadsföringsupplägget som får det att krypa lite i kroppen. Typ som samsungs produktnamn q-led.

Interpolering innebär att man lägger in en eller flera frames mellan två frames. Då man redan vet hur dessa två frames ser ut kan man relativt enkelt blanda mellan dem för att skapa nya frames. Det klarar som sagt även gamla TV när gäller förinspelat material genom att bara ligga en eller några frames "efter" och slänga in blandningar mellan de frames som finns.

Detta är inte samma sak eftersom man inte vet hur nästa frame kommer att se ut i förväg. Spel är ju inte förinspelade utan nästa frame beror helt på vad spelaren gör, om man plötsligt drar musen åt ett annat håll t.ex. Så DLSS3 försöker gissa hur nästa frame kommer se ut baserat på motion vectors, föregående frames o.s.v. Det är den delen som är AI. Att bara fördröja hela spelet t.ex. 32 ms och köra enkel interpolation skulle skapa mycket mer latens än vad DLSS3 gör.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av medbor:

Du behöver nog titta igen, denna teknik genererar bilder mellan två renderade rutor, inte in i framtiden

https://www.youtube.com/watch?v=6pV93XhiC1Y&t=240

Se videon ovan, timestamp och allt

Skrivet av Pepsin:

Interpolering innebär att man lägger in en eller flera frames mellan två frames. Då man redan vet hur dessa två frames ser ut kan man relativt enkelt blanda mellan dem för att skapa nya frames. Det klarar som sagt även gamla TV när gäller förinspelat material genom att bara ligga en eller några frames "efter" och slänga in blandningar mellan de frames som finns.

Detta är inte samma sak eftersom man inte vet hur nästa frame kommer att se ut i förväg. Spel är ju inte förinspelade utan nästa frame beror helt på vad spelaren gör, om man plötsligt drar musen åt ett annat håll t.ex. Så DLSS3 försöker gissa hur nästa frame kommer se ut baserat på motion vectors, föregående frames o.s.v. Det är den delen som är AI. Att bara fördröja hela spelet t.ex. 32 ms och köra enkel interpolation skulle skapa mycket mer latens än vad DLSS3 gör.

Se mitt i lägg ovan, du har helt enkelt fel! De genererar inte frames in i framtiden de renderar en bildruta, skapar med hjälp av den en mellanliggande till förra, visar denna mellanruta, sedan visar den som varit färdig ett tag. Hela bildupplevelsen fördröjs med en halv bildruta (som bäst)

De skapar inte rutor in i framtiden, du, @Maereng och många andra har förstått helt fel

Permalänk
Medlem

Lägger upp en bild så det blir tydligare:

Övre raden är renderade bilder
Nedre raden är det skärmen får

Permalänk

Jag förstår verkligen inte hur någon kan tro att det handlar om extrapolering. Det skulle bokstavligt talat krävas en tidsmaskin för att extrapolera. Ett grafikkort kan ju omöjligt veta om du kommer röra på musen upp, ner, åt vänster, åt höger eller lite snett åt höger, om du kommer trycka på w, c, f, e, mellanslag eller vänster musknapp, om en motspelare kommer komma in bild, eller om en motspelare som redan är i bild kommer röra sig åt vänster, eller höger, eller om det kommer komma en tsunami, eller en explosion o.s.v.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem
Skrivet av källarinvånare:

Jag förstår verkligen inte hur någon kan tro att det handlar om extrapolering. Det skulle bokstavligt talat krävas en tidsmaskin för att extrapolera. Ett grafikkort kan ju omöjligt veta om du kommer röra på musen upp, ner, åt vänster, åt höger eller lite snett åt höger, om du kommer trycka på w, c, f, e, mellanslag eller vänster musknapp, om en motspelare kommer komma in bild, eller om en motspelare som redan är i bild kommer röra sig åt vänster, eller höger, eller om det kommer komma en tsunami, eller en explosion o.s.v.

Tar man dom två eller kanske tre föregående framesen med dess vektorer osv så är det inte helt omöjligt att göra en hyfsat kvalificerad gissning på vad nästa frame ska bli, speciellt när det trots allt handlar om förhållandevis höga framerates där man kan anta att nästa frame inte kommer röra sig i en helt annan riktning, hastighet eller så. Så med lite AI på det också så kan jag tänka mig att den alltså borde kunna gissa ganska bra ändå. Fast sen å andra sidan borde man väl också kunna anta att även Nvidia har tänkt på det där med extrapolering o kanske tyckte att det inte dög o att den extra latencyn som denna interpolering ger är värt det.

Äh, jag ser fram emot att få se fler tester på det här för att se hur bra interpoleringen funkar i praktiken, även om jag såklart inte kommer köpa nå 4000-kort med tanke på dess fantasipriser.

Permalänk
Skrivet av Gurrrra:

Tar man dom två eller kanske tre föregående framesen med dess vektorer osv så är det inte helt omöjligt att göra en hyfsat kvalificerad gissning på vad nästa frame ska bli, speciellt när det trots allt handlar om förhållandevis höga framerates där man kan anta att nästa frame inte kommer röra sig i en helt annan riktning, hastighet eller så. Så med lite AI på det också så kan jag tänka mig att den alltså borde kunna gissa ganska bra ändå. Fast sen å andra sidan borde man väl också kunna anta att även Nvidia har tänkt på det där med extrapolering o kanske tyckte att det inte dög o att den extra latencyn som denna interpolering ger är värt det.

Äh, jag ser fram emot att få se fler tester på det här för att se hur bra interpoleringen funkar i praktiken, även om jag såklart inte kommer köpa nå 4000-kort med tanke på dess fantasipriser.

Nej, det går inte. Som sagt, helt ofattbart att någon kan tro något så dumt. Det måste finnas ett närmast oändligt antal olika saker som kan hända på skärmen, och om inte "AI:n" gissar rätt varje gång är det ju en helt meningslös funktion.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Hedersmedlem
Skrivet av Pepsin:

Interpolering innebär att man lägger in en eller flera frames mellan två frames. Då man redan vet hur dessa två frames ser ut kan man relativt enkelt blanda mellan dem för att skapa nya frames. Det klarar som sagt även gamla TV när gäller förinspelat material genom att bara ligga en eller några frames "efter" och slänga in blandningar mellan de frames som finns.

Detta är inte samma sak eftersom man inte vet hur nästa frame kommer att se ut i förväg. Spel är ju inte förinspelade utan nästa frame beror helt på vad spelaren gör, om man plötsligt drar musen åt ett annat håll t.ex. Så DLSS3 försöker gissa hur nästa frame kommer se ut baserat på motion vectors, föregående frames o.s.v. Det är den delen som är AI. Att bara fördröja hela spelet t.ex. 32 ms och köra enkel interpolation skulle skapa mycket mer latens än vad DLSS3 gör.

Jag vet inte om du kollade på videon som hörde nyheten till men där går de igenom hur det fungerar och det verkar vara vanlig interpolering.
Man renderar en bild, sedan renderar man en bild till. Sedan låter man dlss3 göra en interpolerad bild mellan dessa två.
Kolla från 03:55 i nyhetens video och 20 sekunder framåt.

Så det verkar inte handla om att gissa fram vad som ska visas sen utan det ser ut att vara samma upplägg som används i din plattTV sedan länge.
Och det är väl just precis den här delen jag har lite svårt för med marknadsföringen. Det här låter som nå nytt vilket inte riktigt stämmer. Och det syns även här i tråden.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av källarinvånare:

Nej, det går inte. Som sagt, helt ofattbart att någon kan tro något så dumt. Det måste finnas ett närmast oändligt antal olika saker som kan hända på skärmen, och om inte "AI:n" gissar rätt varje gång är det ju en helt meningslös funktion.

Lol det är klart det går, resultatet kommer såklart inte blir perfekt men klart som fan det skulle gå, speciellt om den får träna med lite AI först o om frameratesen redan är så pass höga att det faktiskt inte finns så många håll som extrapoleringen kan gå åt.

Permalänk
Medlem
Skrivet av källarinvånare:

Nej, det går inte. Som sagt, helt ofattbart att någon kan tro något så dumt. Det måste finnas ett närmast oändligt antal olika saker som kan hända på skärmen, och om inte "AI:n" gissar rätt varje gång är det ju en helt meningslös funktion.

Skulle kunna gissa 95% rätt 90% av tiden, och de gånger den missar ger det max en halv frame delay (om ens det). Den kan ju ta senaste bilden med rörelsevektorer etc. Men det kommer nog vara mycket artefakter och sånt. Fördelen med sådan teknik är dock att det inte påverkar latensen

Permalänk
Skrivet av medbor:

Skulle kunna gissa 95% rätt 90% av tiden, och de gånger den missar ger det max en halv frame delay (om ens det). Den kan ju ta senaste bilden med rörelsevektorer etc. Men det kommer nog vara mycket artefakter och sånt. Fördelen med sådan teknik är dock att det inte påverkar latensen

Nej det skulle den inte, inte ens nästan, och 95% rätt 90% av tiden vore helt värdelöst. Det är när det händer oförutsedda saker som man behöver extra bildrutor.

Skrivet av Gurrrra:

Lol det är klart det går, resultatet kommer såklart inte blir perfekt men klart som fan det skulle gå, speciellt om den får träna med lite AI först o om frameratesen redan är så pass höga att det faktiskt inte finns så många håll som extrapoleringen kan gå åt.

Lol. Nej, bara nej. Du lever i en fantasivärld. Om jag rör musen åt vänster, då vill jag att nästa bildruta ska vara förflyttad åt vänster. Inte uppåt eller åt höger. Om fienden hoppar åt höger, då vill jag att nästa ruta ska visa honom hoppandes åt höger, inte att han står stilla eller hoppandes åt vänster. Men det här har jag redan förklarat, det är tydligen alldeles för svårt för er att ta in så det är lika bra att slutar slösa på min tid.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem
Skrivet av källarinvånare:

Nej det skulle den inte, inte ens nästan, och 95% rätt 90% av tiden vore helt värdelöst. Det är när det händer oförutsedda saker som man behöver extra bildrutor.
Lol. Nej, bara nej. Du lever i en fantasivärld. Om jag rör musen åt vänster, då vill jag att nästa bildruta ska vara förflyttad åt vänster. Inte uppåt eller åt höger. Om fienden hoppar åt höger, då vill jag att nästa ruta ska visa honom hoppandes åt höger, inte att han står stilla eller hoppandes åt vänster. Men det här har jag redan förklarat, det är tydligen alldeles för svårt för er att ta in så det är lika bra att slutar slösa på min tid.

Jag menade alltså som teoretiskt experiment, inte att det går att nå den träffsäkerheten redan nu, eller i realtid. Lite som animationen när man promenerar runt mellan punkterna på google maps kanske?

Jag skulle gärna se tester som bara visar de genererade rutorna så man tydligare ser artefakterna med dlss3

Permalänk
Medlem
Skrivet av källarinvånare:

Jag förstår verkligen inte hur någon kan tro att det handlar om extrapolering. Det skulle bokstavligt talat krävas en tidsmaskin för att extrapolera. Ett grafikkort kan ju omöjligt veta om du kommer röra på musen upp, ner, åt vänster, åt höger eller lite snett åt höger, om du kommer trycka på w, c, f, e, mellanslag eller vänster musknapp, om en motspelare kommer komma in bild, eller om en motspelare som redan är i bild kommer röra sig åt vänster, eller höger, eller om det kommer komma en tsunami, eller en explosion o.s.v.

Självklart har du rätt. Men, det kan finnas genvägar även här i framtiden. Behöver man verkligen rendera den framtida bilden fult ut? Räcker det med kanske outlines och bara rendera fullt det som är nytt innan man börjar beräkna, det blir ju inte en ren interpolering längre då. Svaren har jag inte, men det är möjligt att det kanske kan gå att optimera algoritmen för att få ner latency.

Permalänk
Skrivet av Lussarn:

Självklart har du rätt. Men, det kan finnas genvägar även här i framtiden. Behöver man verkligen rendera den framtida bilden fult ut? Räcker det med kanske outlines och bara rendera fullt det som är nytt innan man börjar beräkna, det blir ju inte en ren interpolering längre då. Svaren har jag inte, men det är möjligt att det kanske kan gå att optimera algoritmen för att få ner latency.

Ja det ser jag inte som någon omöjlighet.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem
Skrivet av källarinvånare:

Lol. Nej, bara nej. Du lever i en fantasivärld. Om jag rör musen åt vänster, då vill jag att nästa bildruta ska vara förflyttad åt vänster. Inte uppåt eller åt höger. Om fienden hoppar åt höger, då vill jag att nästa ruta ska visa honom hoppandes åt höger, inte att han står stilla eller hoppandes åt vänster. Men det här har jag redan förklarat, det är tydligen alldeles för svårt för er att ta in så det är lika bra att slutar slösa på min tid.

Som sagt, om vi snackar om framerates om 60fps+ så är det inte som att den ska gissa flera sekunder in i framtiden, utan det handlar om 16ms eller mindre o inte alltid direkt jättemånga pixlar. Som sagt så kommer den inte alls vara perfekt o saker som varit helt occludade föregående frames kommer antagligen se rätt pannkaka ut, men den kan _garanterat_ extrapolera betydligt bättre än vad du verkar tro. Det går att göra rätt mycket med bra hårdvara o vektordata osv. Jag menar om dom två tre föregående framesen visar att du håller på att röra musen snett upp i en kurva mot vänster så lär nästa frame högst antagligen gå ditåt också, för spelet lär inte vara så snabbt o du är inte heller en robot med flugreflexer som kan ändra riktning helt o hållet på bara en frame.

Permalänk
Medlem
Skrivet av landahl:

Tror du 5000 serien blir billigare?

Nej. tänkte mest att det vore slöseri med tanke på att ett 3090 är mer än dugligt för tillfallet. Att köpa nytt varannan generation är mer vettigt för mina behov.

Det var för övrigt ett väldigt gnällandes i tråden om latens o.s.v. Alla spelar inte CS eller liknande, jag spelar mestadels turbaserade spel och strategi och några fler ms lär inte störa mig. Att kvalitén kommer att upplevas väldig mycket sämre än DLSS 2.x till exempel för de flesta tror jag inte på ett ögonblick heller. Förhoppningsvis kommer sweclockers recension beröra hur det upplevs för dem i CP till exempel.

Visa signatur

ASUS ROG STRIX Z790-E GAMING WiFi * I9-14900K
DDR5 64GB 6800 CL32 * NVIDIA RTX 3090 PNY XLR8 REVEL
Samsung NVMe M.2 990 PRO 2 TB & Samsung SATA 960 EVO 2 TB
Sound Blaster AE-7 * AW3423DW * Win 11 Pro