Geforce RTX 4080 12 GB presterar i linje med RTX 3090 Ti

Permalänk
Medlem
Skrivet av ipac:

"4080 är dyra" är ännu kortare sagt.

Det han säger har varit känt ända sen korten presenterades.

Prislapparna blev i och för sig kända långt innan några prestandasiffor, vilka bara har funnits ute ett par dygn, så nä... det kritiken går ut på har inte alls varit känt "sedan länge".

Permalänk
Medlem
Skrivet av medbor:

Fantastiska nyheter! Sällan jag sett Nvidia agera vettigt

Fatta vad detta måste kosta, eller sätter de bara klisterlappar med nya namnet på lådorna?

Samtidigt får vi bekräftat, från Nvidia själva, vad ett 4070 kommer att kosta. Yikes säjer jag bara.

Ett xx70 i den nya serien närmar sig ett xx90 i föregående serie vad gäller pris. Yikes igen.

Permalänk
Medlem

"Gör om, gör rätt", men jösses vilken röra. Vilken administrativ röra, åtminstone!

"Förvirrande med två olika 4080". Efterklokt.

Permalänk
Medlem
Skrivet av Sveklockarn:

Prislapparna blev i och för sig kända långt innan några prestandasiffor, vilka bara har funnits ute ett par dygn, så nä... det kritiken går ut på har inte alls varit känt "sedan länge".

Tvärtom. Ballpark prestandan var känd långt innan priserna.

Permalänk
Medlem
Skrivet av ipac:

Tvärtom. Ballpark prestandan var känd långt innan priserna.

Jag verkar onekligen ha fyllepostat angående prestandan, men faktum kvarstår att prisökningen inte motiverar vad som är en generationell uppdatering. Det blir väl annorlunda priser när de sålt av årsförbrukningen/årsförbrukningarna av RTX 30-serien som ligger och ruvar på lager tack vare Samsungs inkompetens med leveranserna av GPUerna.

Det finns ingen anledning att köpa nu om man inte vill förlora pengar och cementera framtida prishöjningar.

Permalänk
Medlem
Skrivet av Maaxan:

Samtidigt får vi bekräftat, från Nvidia själva, vad ett 4070 kommer att kosta. Yikes säjer jag bara.

Ett xx70 i den nya serien närmar sig ett xx90 i föregående serie vad gäller pris. Yikes igen.

I Sverige med dagens kronkurs ska sägas, men förstår vad du menar

Permalänk
Medlem

Sjukt att Nvidia backade. Så nu när den döps om till 4070, vad kostar den då egentligen. 700 kanske?

Jag antar att de var ville slippa pinsamheten över att bli helt bortblåsta av AMD i den prisnivån.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av Clasito:

Jag antar att de var ville slippa pinsamheten över att bli helt bortblåsta av AMD i den prisnivån.

Jag misstänker ju att AMD kommer justera upp sina priser för motsvarande prestanda. Ju längre tiden går desto mer framstår DLSS som en grej för plebejer som inte bryr sig om grafisk kvalitet, och således inte har någon egentlig anledning att köpa något högpresterande grafikkort från första början, men det har uppstått såna sektmässiga dogmer i gamingvärlden att folk börjar tro att det är något man inte klarar sig utan.

Raytracing är coolt, men har fortfarande inte sett något intressant spel som implementerar det på ett sätt som ger någon långvarig wow-känsla. Techdemot Quake 2 RTX är ett bra exempel, spelet är ju lika brunt i grund och botten, och gå runt och kolla på alla reflektioner blir snabbt gammalt.

AMDs tid är nu, beroende på hur de förvaltar kommande release.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag misstänker ju att AMD kommer justera upp sina priser för motsvarande prestanda. Ju längre tiden går desto mer framstår DLSS som en grej för plebejer som inte bryr sig om grafisk kvalitet, och således inte har någon egentlig anledning att köpa något högpresterande grafikkort från första början, men det har uppstått såna sektmässiga dogmer i gamingvärlden att folk börjar tro att det är något man inte klarar sig utan.

Raytracing är coolt, men har fortfarande inte sett något intressant spel som implementerar det på ett sätt som ger någon långvarig wow-känsla. Techdemot Quake 2 RTX är ett bra exempel, spelet är ju lika brunt i grund och botten, och gå runt och kolla på alla reflektioner blir snabbt gammalt.

AMDs tid är nu, beroende på hur de förvaltar kommande release.

Ja håller med på båda punkterna. Gällande RT hade jag hoppats på att 4000 serien skulle minska tappet i prestanda men det verkar ju vara lika illa som förr. Sålänge skillnad i fps är mer märkbar än RT effekter är det iaf helt ointressant för egen del.

Gällande AMDs chanser, de har fått ett friläge mot Nvidias mål. Missar de mål denna gången kan de lika gärna byta ut sig själva.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av Streamdog:

Känns spontant som att 4080 12GB kommer sälja dåligt. Då släpper de 4070 istället med ett par SMs avskalade från fulla AD104 och säljer det kortet för 599-699 USD. Och att 4080 12 GB kommer utgå/fasas ut.
Beror ju lite på vad AMD kontrar med också..

THIS!!

Just in. Nvidia cancels 4080 12gb.

Vad var det jag sa. Återstår att se om de bara döper om kortet eller om de även sänker priset.
Tror det kommer ett 4070 istället fast med några cudakärnor färre än vad 4080 12 gb hade.
Nästa år släpper de det tidigare 4080 12 gb som ett 4070ti.

Visa signatur

Dator 1: Meshify S2 Vit | RM750x | B550-E | 5700X | 32Gb Lpx 3600 | 3060Ti Gaming X Trio | 970 Evo Plus 1TB + 850 Evo 500GB|
Dator 2: FD Define R5 Vit | RM750x | B550-F Wifi | 3800X | 32Gb Lpx 3200 | SN850 1TB+850 Evo 500GB+Sandisk Plus 960GB | 1070 Gaming Z - Playstation 5 | Wii U | Nintendo Switch

Permalänk
Medlem
Skrivet av Clasito:

Ja håller med på båda punkterna. Gällande RT hade jag hoppats på att 4000 serien skulle minska tappet i prestanda men det verkar ju vara lika illa som förr. Sålänge skillnad i fps är mer märkbar än RT effekter är det iaf helt ointressant för egen del.

Gällande AMDs chanser, de har fått ett friläge mot Nvidias mål. Missar de mål denna gången kan de lika gärna byta ut sig själva.

Jag vill verkligen tycka om raytracing, brukar reflektera (höhö!) över det när jag spelar diverse spel att vissa grafiska detaljer skulle kunnat bli väldigt mycket snyggare om man implementerade raytracing i liten skala. Tyvärr verkar det finnas en trend där det ska användas raytracing för saker där det i princip bara går att se en skillnad med screenshots sida vid sida, till kostnaden av enorm prestandaförlust för bildfrekvensen.

Det kanske är jag som inte förstår hur det fungerar, men att bara smacka ut det för allmänna reflektioner på allting verkar som ett enormt resursslöseri. Nu är det väl dock troligt att nästa Radeon-generation har betydligt bättre RT-prestanda än innevarande generation, men har fortfarande svårt att se det som ett köpargument rent rationellt ur perspektivet hur många speltitlar som använder det, hur de använder det samt vad det gör med prestandan.

Permalänk
Medlem

Geforce RTX 4080 12 GB presterar i linje med RTX 3090 Ti Hur kan en produkt 4080 12GB som inte ska finnas prestera något? Antar att det menas 4070 som ist släpps 2023?

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Medlem
Skrivet av medbor:

Där har du fel. Renderingen ser ut så här:

1. Native 1080p bild 1 renderas av spelmotorn
2. DLSS2 skalar upp bild 1 till 2160p (tar några ms) (denna visas på skärmen också, men bild 2 är i fokus för denna gång)
3. Native 1080p bild 2 renderas av spelmotorn
4. DLSS2 skalar upp bild 2 till 2160p (tar några ms)
5. DLSS3 genererar en bildruta från uppskalade bild 1 och 2, låt oss kalla den bild 1.5 (tar några ms)
6. Bild 1.5 visas på skärmen
7. Native 1080p bild 3 renderas av spelmotorn
8. Bild 2 visas för spelaren (några ms efter att 1.5 börjat visas)
9. DLSS2 skalar upp bild 3 till 2160p (tar några ms)
10. DLSS3 genererar en bildruta från uppskalade bild 2 och 3, låt oss kalla den bild 2.5 (tar några ms)
11. Bild 2.5 visas på skärmen

Du har beskrivit rendering med dlss 3 på en gpu med disablade eller seriekopplade tensor cores där allt skall ske seriellt i en renderingspipeline (vilket är helt absurt). I verkligheten ser det ut så här, med dina steg ovan (steg 2 är har för övrigt två fel, det ena är att den framen visas inte på skärmen utan köas istället upp (Jag korrigerar inte de felaktiga frame-siffrorna, du förstår vad jag menar), samt att det inte tar "några ms" från "native-renderingen" då det sker paralellt - hade det gjort det så hade det gett högre latency precis som du säger - samma sak med alla steg som "tar några ms". I paralell fysisk tid tar det några ms - gissningsvis tweakat att ta så lång tid som möjligt för att maximera kvalitet:

1. (samtidigt som äldre frames paralellt behandlas med tensor cores i steg 2,4 och 5 - den frame som visar här är en äldre köad frame, 0 eller -1 tex beroende på hur reflex fungerar)
3+6 (samtidigt som äldre frames paralellt behandlas med tensor cores i steg 2,4 och 5 och köas)
repeat

Skrivet av medbor:

Hur du än räknar så är det faktist fördröjning, mycket mer än DLSS2. Du väntar med att visa en färdig bild (se bild 2 ovan), istället genereras en bild till med DLSS3 (tar några ms dessutom) som sedan visas. Sen efter det väntas ännu en halv bilds fördröjning, sen så visas den senast färdiga bilden från DLSS2. Det är nästan en hel bildrutas fördröjning i förhållande till DLSS2

Att det är större fördröjning än dlss2 pga kö är ju exakt det jag skrivit, om du läst och förstått det.
Återigen, det tar inte "några ms dessutom" - det sker paralellt, annars hade man fått sämre framerate. Man får bättre framerate. Den extra delay som finns är pga kö även om det säkert även är pyttelite overhead att skicka instruktioner till tensor cores i stil med "utför operation x på frame y+z med denna metadata".
Kön blir en mindre och mindre fördröjning desto högre framerate man har och tekniken kan ge extremt hög framrate, vilket sänker latency.

Skrivet av medbor:

Enkelt schema blir ungefär såhär:
1. Native 1080p: 25ms
2. DLSS2 1080p->2160p: 30ms
3. DLSS3 1080p->2x2160p: 50-60ms
4. Native 2160p: 40-60ms(?)

Varför jämföra 1080p med 4k och varför gissa och hitta på siffror, som det finns test på?
Här från digital foundry, som iaf jag tycker är bland de bästa på att analysera och göra väl genomtänkta tester.

I sämsta scenariot, där det bara är lite mer än dubblad framerate vilket borde vara minimum om man inte begränsar fps, så är latency ungefär samma som native, men mycket sämre än dlss2. (spiderman påstås vara cpubundet).
I det bästa scenariot, får man inom felmarginalen samma latency som dlss2, och en helt annan liga än native.

Skrivet av medbor:

Fördröjningen blir kraftigt försämrat jämfört med dlss2, mer jämförbart med native, men med dubblerad bildfrekvens. Dessutom är bilderna av tveksam kvalitet om man ska se till analyser

Jag tror det behöver upplevas för att se hur det är, men spontant tror jag inte alls det är en trevlig upplevelse

Här är väl nackdelen att det inte finns så mycket stöd än, jag fick mitt kort idag, men har bara cyberpunk 2077 med dlss 3-stöd och de har inte släppt den patchen till allmänheten än verkar det som. De techsites som jag litat på under åren säger alla att det ser bra väldigt bra ut, och då jag tycker att DLSS 2 ser utmärkt ut, så är jag försiktigt positiv
Det enda stora problemet det verkar ha, är att det inte tål att kombineras med vsync eller frame limiters särskilt bra - men kanske fast sync går vid hög fps. Fast sync kräver kö, men det är ju redan kö i dlss3.

Permalänk
Medlem
Skrivet av JBE:

Du har beskrivit rendering med dlss 3 på en gpu med disablade eller seriekopplade tensor cores där allt skall ske seriellt i en renderingspipeline (vilket är helt absurt). I verkligheten ser det ut så här, med dina steg ovan (steg 2 är har för övrigt två fel, det ena är att den framen visas inte på skärmen utan köas istället upp (Jag korrigerar inte de felaktiga frame-siffrorna, du förstår vad jag menar), samt att det inte tar "några ms" från "native-renderingen" då det sker paralellt - hade det gjort det så hade det gett högre latency precis som du säger - samma sak med alla steg som "tar några ms". I paralell fysisk tid tar det några ms - gissningsvis tweakat att ta så lång tid som möjligt för att maximera kvalitet:

1. (samtidigt som äldre frames paralellt behandlas med tensor cores i steg 2,4 och 5 - den frame som visar här är en äldre köad frame, 0 eller -1 tex beroende på hur reflex fungerar)
3+6 (samtidigt som äldre frames paralellt behandlas med tensor cores i steg 2,4 och 5 och köas)
repeat

Att det är större fördröjning än dlss2 pga kö är ju exakt det jag skrivit, om du läst och förstått det.
Återigen, det tar inte "några ms dessutom" - det sker paralellt, annars hade man fått sämre framerate. Man får bättre framerate. Den extra delay som finns är pga kö även om det säkert även är pyttelite overhead att skicka instruktioner till tensor cores i stil med "utför operation x på frame y+z med denna metadata".
Kön blir en mindre och mindre fördröjning desto högre framerate man har och tekniken kan ge extremt hög framrate, vilket sänker latency.

Varför jämföra 1080p med 4k och varför gissa och hitta på siffror, som det finns test på?
Här från digital foundry, som iaf jag tycker är bland de bästa på att analysera och göra väl genomtänkta tester.

https://imgur.com/2vYjHqc.png

https://i.imgur.com/BOygPLW.png

https://i.imgur.com/NmQRp11.png
I sämsta scenariot, där det bara är lite mer än dubblad framerate vilket borde vara minimum om man inte begränsar fps, så är latency ungefär samma som native, men mycket sämre än dlss2. (spiderman påstås vara cpubundet).
I det bästa scenariot, får man inom felmarginalen samma latency som dlss2, och en helt annan liga än native.

Här är väl nackdelen att det inte finns så mycket stöd än, jag fick mitt kort idag, men har bara cyberpunk 2077 med dlss 3-stöd och de har inte släppt den patchen till allmänheten än verkar det som. De techsites som jag litat på under åren säger alla att det ser bra väldigt bra ut, och då jag tycker att DLSS 2 ser utmärkt ut, så är jag försiktigt positiv
Det enda stora problemet det verkar ha, är att det inte tål att kombineras med vsync eller frame limiters särskilt bra - men kanske fast sync går vid hög fps. Fast sync kräver kö, men det är ju redan kö i dlss3.

Det jag skrev ovan är såklart en förenkling av stegen så det gick att skriva dem i en lista, men vissa saker kan inte ske parallellt:
1. Rendera low-res frame
2. Skala upp med DLSS2
3. Generera intermediate frame med DLSS3

Dessa steg måste strikt ske efter varandra då deras input är steget innans output

Den ökade latensen kommer från att vänta med att visa vilden från steg två på grund av:
1. Några ms för generering av mellanliggande rutan
2. Tiden den genererade bildrutan ska visas på skärmen

Det rör sig alltså om minst en halv bildrutas fördröjning mot DLSS2 plus delay för genereringen.

Enda anledningen att det är acceptabel delay är att DLSS2 + Reflex sänker latensen tillräckligt mycket pga ökat riktigt framerate

De siffror du visade verkar ju visa det jag sa att DLSS3 ligger närmare native än DLSS2 i latens, alltså motsvarande en långt lägre framerate än DLSS2

Många beskriver det som ’slow but smooth’. Jag har inte testat själv, men när man sedan ser artefakterna genereringen lider av (kanter av objekt) så skulle jag stanna vid DLSS2 istället för 3 om jag fick välja

Permalänk
Medlem
Skrivet av medbor:

Det jag skrev ovan är såklart en förenkling av stegen så det gick att skriva dem i en lista, men vissa saker kan inte ske parallellt:
1. Rendera low-res frame
2. Skala upp med DLSS2
3. Generera intermediate frame med DLSS3

Dessa steg måste strikt ske efter varandra då deras input är steget innans output

Återigen, fel. Dlss 3 kräver att frames köas. Därför kan alla 3 saker ske paralellt samtidigt på olika stadier av köade frames.

Skrivet av medbor:

Den ökade latensen kommer från att vänta med att visa vilden från steg två på grund av:
1. Några ms för generering av mellanliggande rutan
2. Tiden den genererade bildrutan ska visas på skärmen

Återigen, nej. Det tar inte "Några ms för generering av mellanliggande rutan". Det sker paralellt på köade frames, enligt nvidia helt utan cpu eller påverkan på normal rendering, vilket troligen är sant iom framrate kan mer än fördubblas. latensen kommer mestadels av en extra köad frame.

Skrivet av medbor:

Det rör sig alltså om minst en halv bildrutas fördröjning mot DLSS2 plus delay för genereringen.

Enda anledningen att det är acceptabel delay är att DLSS2 + Reflex sänker latensen tillräckligt mycket pga ökat riktigt framerate

Minst en hel extra frame pga kö. Men återigen, ingen extra delay för genereringen. Reflex har du i båda fallen, så den sänker inte latency i dlss3 förhållande till dlss2.

Skrivet av medbor:

De siffror du visade verkar ju visa det jag sa att DLSS3 ligger närmare native än DLSS2 i latens, alltså motsvarande en långt lägre framerate än DLSS2

Du skriver om olika extra fördröjningar som skall väntas på, medan testsiffrorna ligger i sämsta scenariot jämnt med native, och i bästa fall nästan halverad latency.

Permalänk
Medlem
Skrivet av Streamdog:

THIS!!

Just in. Nvidia cancels 4080 12gb.

Vad var det jag sa. Återstår att se om de bara döper om kortet eller om de även sänker priset.
Tror det kommer ett 4070 istället fast med några cudakärnor färre än vad 4080 12 gb hade.
Nästa år släpper de det tidigare 4080 12 gb som ett 4070ti.

Vafan är du en nvidia insider eller

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av JBE:

Återigen, fel. Dlss 3 kräver att frames köas. Därför kan alla 3 saker ske paralellt samtidigt på olika stadier av köade frames.

Återigen, nej. Det tar inte "Några ms för generering av mellanliggande rutan". Det sker paralellt på köade frames, enligt nvidia helt utan cpu eller påverkan på normal rendering, vilket troligen är sant iom framrate kan mer än fördubblas. latensen kommer mestadels av en extra köad frame.

Minst en hel extra frame pga kö. Men återigen, ingen extra delay för genereringen. Reflex har du i båda fallen, så den sänker inte latency i dlss3 förhållande till dlss2.

Du skriver om olika extra fördröjningar som skall väntas på, medan testsiffrorna ligger i sämsta scenariot jämnt med native, och i bästa fall nästan halverad latency.

Det verkar som att du inte förstår. Köade bildrutor är garanterad latens, innan bildrutan är skapad kan den inte stoppas in i en kö. Färdiga bildrutor (åtminstone en) väntar med att visas på skärmen för att kunna generera mellanliggande. Det jag beskriver ovan är det teoretiskt bästa fallet för att minska latens. Om de köar ännu fler bildrutor blir resultatet ännu värre. Nu känner jag mig klar med denna diskussion

Permalänk
Medlem

Jahapp, det gick ju fortare än jag trodde..
Att det skulle döpas om var ju ganska säkert men jag trodde att dom skulle sälja ut 3000 serien först…

Permalänk
Medlem
Skrivet av Clasito:

Vafan är du en nvidia insider eller

Haha 😆 Nästan så man själv börjar undra det 😆

Visa signatur

Dator 1: Meshify S2 Vit | RM750x | B550-E | 5700X | 32Gb Lpx 3600 | 3060Ti Gaming X Trio | 970 Evo Plus 1TB + 850 Evo 500GB|
Dator 2: FD Define R5 Vit | RM750x | B550-F Wifi | 3800X | 32Gb Lpx 3200 | SN850 1TB+850 Evo 500GB+Sandisk Plus 960GB | 1070 Gaming Z - Playstation 5 | Wii U | Nintendo Switch

Permalänk
Medlem
Skrivet av medbor:

Det verkar som att du inte förstår. Köade bildrutor är garanterad latens, innan bildrutan är skapad kan den inte stoppas in i en kö. Färdiga bildrutor (åtminstone en) väntar med att visas på skärmen för att kunna generera mellanliggande. Det jag beskriver ovan är det teoretiskt bästa fallet för att minska latens. Om de köar ännu fler bildrutor blir resultatet ännu värre. Nu känner jag mig klar med denna diskussion

Du varken läser vad jag skriver, eller förstår det tekniska bakom det. Du behöver läsa om vad jag skrivit (eller kanske hellre vad nvidia skrivit) och försöka tillgodogöra dig informationen.

Gång på gång förklarar jag att det skapas extra latens pga (minst) en extra köad frame. Det är ju bra att du nu förstått det.
MEN, när fps går mot oändligheten, så går denna extra latens pga kö mot noll. Därför kan latency vara nästan samma som dlss2, och BÄTTRE än native, TROTS kö, när dlss fungerar optimalt och ger nära sin utlovade effekt (och fungerar det inte, så kan man ju stänga av det).
En köplats på två som betas av var 10:e millisekund, kommer fram snabbare än en kö på 1, som betas av var 40:e millisekund. Förstår du? Detta är siffror som proportionellt matchar best case i dlss3, som också matchas i det mest fördelaktiga testet ovan.

Skrivet av medbor:

innan bildrutan är skapad kan den inte stoppas in i en kö.

Och så var det paralelliseringen, som jag tror att du inte helt förstår. Allting måste inte ske seriellt. Tensor cores som används i dlss 2 och 3, är separat hårdvara. Den normala renderingen kan alltså gå i 100% (minus antagligen ganska försumbar overhead). SAMTIDIGT som dlss2-3 jobb/frames köas på tensor cores.
Helt färdiga frames köas sedan i framebuffer OCH som input tillsammans med metadata med rörelsevektorer etc till dlss3.
Pga detta blir det INTE "några ms" väntetider här och där vilket gör att man kan jobba ikapp fördröjningen kön ger.
DLSS 3-frames skapas bakåt i tid i förhållande till sista köade frame, och sänker därmed latency, jämfört med kön - men fortfarande högre latency än noll kö, eller dlss2.

Permalänk
Medlem
Skrivet av JBE:

Du varken läser vad jag skriver, eller förstår det tekniska bakom det. Du behöver läsa om vad jag skrivit (eller kanske hellre vad nvidia skrivit) och försöka tillgodogöra dig informationen.

Gång på gång förklarar jag att det skapas extra latens pga (minst) en extra köad frame. Det är ju bra att du nu förstått det.
MEN, när fps går mot oändligheten, så går denna extra latens pga kö mot noll. Därför kan latency vara nästan samma som dlss2, och BÄTTRE än native, TROTS kö, när dlss fungerar optimalt och ger nära sin utlovade effekt (och fungerar det inte, så kan man ju stänga av det).
En köplats på två som betas av var 10:e millisekund, kommer fram snabbare än en kö på 1, som betas av var 40:e millisekund. Förstår du? Detta är siffror som proportionellt matchar best case i dlss3, som också matchas i det mest fördelaktiga testet ovan.

Och så var det paralelliseringen, som jag tror att du inte helt förstår. Allting måste inte ske seriellt. Tensor cores som används i dlss 2 och 3, är separat hårdvara. Den normala renderingen kan alltså gå i 100% (minus antagligen ganska försumbar overhead). SAMTIDIGT som dlss2-3 jobb/frames köas på tensor cores.
Helt färdiga frames köas sedan i framebuffer OCH som input tillsammans med metadata med rörelsevektorer etc till dlss3.
Pga detta blir det INTE "några ms" väntetider här och där vilket gör att man kan jobba ikapp fördröjningen kön ger.
DLSS 3-frames skapas bakåt i tid i förhållande till sista köade frame, och sänker därmed latency, jämfört med kön - men fortfarande högre latency än noll kö, eller dlss2.

Men du säger ju samma sak som jag? Det är du som inte läser det jag skriver. Självklart kan frame 5 hanteras av dlss2 samtidigt som frame 6 renderas av raster och frame 3.5 genereras av dlss3, men latensen av bilden som kommer ut från dlss3 är bara beroende på när frame 4 är färdig, plus tiden för generering, det kan inte ske före frame 4 finns, det kan inte ske före frame 4 är klar, inget parallellt med det, latensen (minimala teoretiska latensen) som jag beskrivit i tidigare inlägg är precis som jag sagt

Det du pratar om är hela renderingen på en annan nivå. Jag pratar specifikt om latensen innan dlss2-bilden visas. Det sker såklart mycket annat

Jag pratar också endast om latensökningen relativt dlss2, självklart kan det variera åt båda hållen hur det motsvarar native, men det är närmare native-renderad latens än dlss2, och mycket högre än dlss2

Kö plus genereringstiden för dlss3-frame är det som avgör latensen, det är linjärt i förhållande till när resurserna finns tillgängliga, går inte att generera mellanliggande utan färdiga bilder innan och efter, finns inget parallellt i det. Andra frames kan hanteras av andra resurser i gpu samtidigt, men det påverkar inte latensen

Som sagt tror du pratar om saker ur ett annat perspektiv

Edit: vi kan tydligt se på svaret nedan att du inte läser mina inlägg, jag gav det ett sista försök, men nu får det räcka. Jag är väl medveten om sekvenserna och hur detta hänger ihop, verkar som vi missförstår varandras sätt att skriva. Även om andra saker sker parallellt så påverkar det inte latensen för en enskild bildruta, det som påverkar bildrutan är ’bara’ när senaste bilden är färdig och när den mellanliggande kan genereras. Den latens jag pratar om är ju den från att dlss2-bilden är färdig tills att den visas, förstår inte vad som kan missförstås…

Permalänk
Medlem
Skrivet av medbor:

Men du säger ju samma sak som jag? Det är du som inte läser det jag skriver. Självklart kan frame 5 hanteras av dlss2 samtidigt som frame 6 renderas av raster och frame 3.5 genereras av dlss3, men latensen av bilden som kommer ut från dlss3 är bara beroende på när frame 4 är färdig, plus tiden för generering, det kan inte ske före frame 4 finns, det kan inte ske före frame 4 är klar, inget parallellt med det, latensen (minimala teoretiska latensen) som jag beskrivit i tidigare inlägg är precis som jag sagt

NEJ det är inget "plus tiden för generering" DET SKER PARALELLT. BÅDE DLSS 2 (delvis) OCH 3 SKER PARALELLT - du tror saker som är totalt fel och baserar sedan resten av resonemanget på det.
Samtidigt som dlss3 med separat hårdvara generar en ny frame så fortsätter normal rendering paralellt. Det är INGEN "plus tiden för generering" utan den genererade framen får ju TVÄRTOM en timestamp BAKÅT i tid jämfört med KÖN, återigen, att ha en kö på tex 2 frames ökar latens, men med förutsättningen att du HAR en kö så sänker detta latens pga högre framrate, och kan, som du även ser i test, bli lägre än native.
Du tänker korrekt "en eller två extra frames i kö måste ge högre latens": JA; Men felaktigt "all processering och paralellisering måste ta tid och ökar också latens": NEJ - då hade man ju aldrig gjort det.

Dvs. "det kan inte ske före frame 4 finns" - det kan inte rent fysiskt SKE före frame4 finns, men det är ju en , så när frame "3.5" är färdig, så är resultatet att den paralellt utan anspråk på resurser som fördröjer huvudrenderingen produceras bakåt i tid. I absoluta fysiska termer är den producerad efter frame 4, JA - men frame "3.5" VISAS före frame 4 rent praktiskt då vi manipulerar en , inte någon abstrakt fysisk absolut tid. Detta sänker latens som köns existens byggt upp. Dessutom innehåller en dlss3-frame äkta visuell information som den fått från "nästa" äkta frame, ifall du tänker logiskt fel att den är helt fake och måste helt uteslutas i beräkningen.

Jag tror du missförstår processen, för att ditt resonemang (om man bortser från det tidigare seriella vs paralella som tyvärr var helt och totalt fel även om jag tror du förstår det nu) är ganska korrekt om du jämför 1080p Native 0 queue vs 4k DLSS2 vs 4K DLSS3
En del du skriver är korrekt för detta scenario, men det är ju helt ointressant - ingen sitter ju och funderar på att köra 1080p native på sin 4k-monitor utom möjligen i något gammalt lättdrivet esportspel och där vill du inte ha denna teknik ändå.
Jämför du korrekt 4k Native vs 4k DLSS2 vs 4k DLSS3 är det fel då 1080p+DLSS2-uppskalning (performance DLSS2) paralellt klarar att rendera en frame snabbare än native 4k.
DLSS2-uppskalningen är enligt nvidia delvis seriell och delvis paralell, men jämför du 4k native vs 1080p+ DLSS2-uppskaning så kommer det effektivt och för alla praktiska syften ske paralellisering mellan rendering och DLSS2-uppskalning, som kommer nå en mycket högre framerate.
Det spelar liksom ingen roll vid frame 10, 245 eller 34534564 att DLSS2 på frame 1 var en delvis seriell process när alla andra är effektivt paralellt genererade och ligger kronologiskt före motsvarande "Native". Chansen att bara frame1 skulle ha så kritisk information som aldrig repeteras är så minimal att det blir meningslöst även om det är tekniskt halv-korrekt för frame 1 i varje renderad sekvens.

Skrivet av medbor:

Jag pratar också endast om latensökningen relativt dlss2, självklart kan det variera åt båda hållen hur det motsvarar native, men det är närmare native-renderad latens än dlss2, och mycket högre än dlss2

NEJ - Återigen ,det varierar med framerate. Med mycket hög framerate (tex det utlovade 4x som faktiskt i vissa test verkar korrekt) blir latensen för den extra kön försumbar, med "worst case x2 - endast interpolering" blir den aningen högre än native.
Du ser att de länkade testarna matchar detta. Det med bäst resultat är ungefär samma som DLSS2, inte "mycket högre".
Det med sämst är ungefär samma som native.
Som tidigare nämnt verkar det finnas stora problem med dlss3 och vsync och frame limiters som kan mångdubbla latency (se digital foundry tex), men i teorin borde man alltid minst kunna dubbla framrate, och kan man inte det eller behöver inte så hög framerate men vill ha vsync/limit, bör man disabla dlss3 pga denna begränsning. Teoretiskt sett kan fast-sync lösa dessa problem men det behöver testas om det alls är kompatibelt.

Skrivet av medbor:

Kö plus genereringstiden för dlss3-frame är det som avgör latensen, det är linjärt i förhållande till när resurserna finns tillgängliga, går inte att generera mellanliggande utan färdiga bilder innan och efter, finns inget parallellt i det.

NEJ - återigen är det kö+overhead som negativt påverkar latensen, medan både DLSS2 och 3 sker paralellt och på separat hårdvara och SÄNKER renderingstiden.

Skrivet av medbor:

Andra frames kan hanteras av andra resurser i gpu samtidigt, men det påverkar inte latensen

JO det gör det i en kö, se ovan.
Jag hoppas att du förstår detta nu, men min pedagogiska gräns är nog nådd, så annars får du nog kontakta både nvidia och konfrontera dem för att de ljuger om hur dlss2-3 fungerar och samtidigt kontakta digital foundry och andra och förklara att deras test måste vara fel.

(I tillägg så är det antagligen en sanning med modifikation som jag skrev att dlss3 sker "utan anspråk på resurser som fördröjer huvudrenderingen" då det borde bli en breakpoint i varje separat dlss-quality där det vid en viss väldigt hög framerate faktiskt blir en flaskhals och balans mellan dlss2 och 3s anspråk på tensor cores - om nu inte tensor-delen alltid är överdimensionerad för detta arbete ).

Permalänk
Medlem
Skrivet av filbunke:

Sett till att MSRP för de nya korten är 29% ($899) respektive 72% ($1199) högre än MSRP var för RTX 3080 ($699), nej.

Huh? Prestandan verkar ju vara rejält förhöjd, typ största ökningen över en generation till en annan på länge, med de staplar Nvidia själva visar upp plus de prestandaresultat RTX 4090 visar upp.

Sedan huruvida det är prisvärt eller inte har jag inte sagt något om, så förstår inte varför du drar fram prisskillnad i procent. Jag tycker personligen knappast att det verkar värt pengarna för min del, då prestandan med mitt RTX 3080 klarar allt jag kastar på det i 3440x1440p med maxade/höga settings. Men jag nappar och leker djävulens advokat.

MSRP var uppenbarligen för lågt för RTX 3080 med tanke på att de sålde slut på några dagar för lanseringspriset, och gick inte att få tag på utan ett prispremium på 50-100% under två års tid typ. Det är först nu som det börjar leta sig ner. Det går inte riktigt att uttala sig om RTX 4080 innan recensioner kommer ut, men dess MSRP känns aningen högt håller jag med om. Men det sänks förhoppningsvis med tiden.

En sak att tänka på är att dollarn är 27,7% dyrare nu. 11,1 SEK idag vs 8,7 SEK runt 17-18 september 2020 vid release av RTX 3080. Hade dollarn legat kvar på samma nivå hade kommande RTX 4080 legat på strax över ~13 000 SEK istället för ~16 500 SEK.

Sedan får man justera ytterligare för inflation osv. Folk har betalat mer för RTX 3090/3090 Ti-kort i år liksom.

Slutligen så är jag övertygad om att det är högre prissatt fram tills alla 3000-kort sålts av, eftersom de kommer existera samtidigt parallellt som 4000-serien nu ett tag. Nvidia vill ju inte konkurrera med sig själva så att säga, så att det fastnar osålda kort hos massa återförsäljare. Det är nog en av anledningarna till att de valde att släppa RTX 4090 nu, då det är en produkt som ligger utanför 99% av alla gamers budget. Samtidigt som de kan puffa ut bröstet och sätta ribban högt för AMDs kommande kort.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 3080 12GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD | Synology DS920+ w/20GB RAM SHR 48TB | Seagate IronWolf 10TB HDD intern HDD
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto
: Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av aMp:

Huh? Prestandan verkar ju vara rejält förhöjd, typ största ökningen över en generation till en annan på länge, med de staplar Nvidia själva visar upp plus de prestandaresultat RTX 4090 visar upp.

3080 > 4080 12G är den sämsta "80 till 80" (rasterisering) prestandaökningen någonsin, typ.

Permalänk
Medlem
Skrivet av aMp:

Huh? Prestandan verkar ju vara rejält förhöjd, typ största ökningen över en generation till en annan på länge, med de staplar Nvidia själva visar upp plus de prestandaresultat RTX 4090 visar upp.

Sedan huruvida det är prisvärt eller inte har jag inte sagt något om, så förstår inte varför du drar fram prisskillnad i procent. Jag tycker personligen knappast att det verkar värt pengarna för min del, då prestandan med mitt RTX 3080 klarar allt jag kastar på det i 3440x1440p med maxade/höga settings. Men jag nappar och leker djävulens advokat.

MSRP var uppenbarligen för lågt för RTX 3080 med tanke på att de sålde slut på några dagar för lanseringspriset, och gick inte att få tag på utan ett prispremium på 50-100% under två års tid typ. Det är först nu som det börjar leta sig ner. Det går inte riktigt att uttala sig om RTX 4080 innan recensioner kommer ut, men dess MSRP känns aningen högt håller jag med om. Men det sänks förhoppningsvis med tiden.

En sak att tänka på är att dollarn är 27,7% dyrare nu. 11,1 SEK idag vs 8,7 SEK runt 17-18 september 2020 vid release av RTX 3080. Hade dollarn legat kvar på samma nivå hade kommande RTX 4080 legat på strax över ~13 000 SEK istället för ~16 500 SEK.

Sedan får man justera ytterligare för inflation osv. Folk har betalat mer för RTX 3090/3090 Ti-kort i år liksom.

Slutligen så är jag övertygad om att det är högre prissatt fram tills alla 3000-kort sålts av, eftersom de kommer existera samtidigt parallellt som 4000-serien nu ett tag. Nvidia vill ju inte konkurrera med sig själva så att säga, så att det fastnar osålda kort hos massa återförsäljare. Det är nog en av anledningarna till att de valde att släppa RTX 4090 nu, då det är en produkt som ligger utanför 99% av alla gamers budget. Samtidigt som de kan puffa ut bröstet och sätta ribban högt för AMDs kommande kort.

Bara om du räknar in DLSS3 som felfri teknik. Den är ju dessutom mjukvarulåst från att köras på 3000-serien

Permalänk
Medlem
Skrivet av Sveklockarn:

Spelar du mycket Flight Simulator?

Kanske ingen högoddsare att Nvidia optimerat skiten ur sin drivrutin för just de titlar de väljer att visa upp.
Jag vet inte var du hittar de siffrorna, men här är en kommentar på Nvidias egna siffror.
https://www.youtube.com/watch?v=uKQRzh6B7xg

Nope, aldrig spelat. Självfallet har de valt en titel som gynnar dem, det är ju ganska givet. Annars borde deras marknadsföringsavdelning få sparken. Dock tycker jag att Nvidia har varit väldigt bra med drivrutiner senaste 5 åren eller mer. Jag minns inte när jag hade problem/upplevt dåligt optimerade drivisar senast tbh.

Var jag hittat siffrorna? Från Nvidia, genom nyheten som vi kommenterar i just nu: https://i.imgur.com/ZJTGwE7.png

Enligt dessa siffror som Nvidia visat upp, är 4080 vs 3080 (utan DLSS) 53% snabbare i MS Flight Simulator i 4K, precis som jag skrev. När du delar upp citatet blir det missvisande, jag vet att du är smart nog att förstå det själv. Och jag tror att du är smart nog att förstå precis vad jag menar.

Men det är som du säger något som varierar mellan alla olika spel. Det är säkert enbart 10% skillnad i vissa titlar, och 50%+ skillnad i andra. Om jag ska dra till med en gissning så kan den genomsnittliga förbättringen över ett 20-tal populära titlar i 4K landa runt 30-35%+ snabbare kanske. Men som sagt så är det bara en gissning tagen ur luften från min sida. Vi märker hur väl det stämmer inom kort.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 3080 12GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD | Synology DS920+ w/20GB RAM SHR 48TB | Seagate IronWolf 10TB HDD intern HDD
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto
: Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av ipac:

3080 > 4080 12G är den sämsta "80 till 80" (rasterisering) prestandaökningen någonsin, typ.

Du vet väl att det inte längre finns något "4080 12GB" va? Det vi jämför är riktiga 4080. Och där verkar prestandan öka rejält för att vara generation till generation, med den information som finns tillgänglig nu. Pris/prestanda not so much dock tyvärr. Peace!

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 3080 12GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD | Synology DS920+ w/20GB RAM SHR 48TB | Seagate IronWolf 10TB HDD intern HDD
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto
: Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Skrivet av aMp:

Du vet väl att det inte längre finns något "4080 12GB" va? Det vi jämför är riktiga 4080.

Jodå men det var ju inte känt då diskussionen började.

Att riktiga 4080 är ett helt ok hopp prestandamässigt (jag gissar på 3080+50%, i swecs prestandaindex 4K) är det nog ingen som har några större invändningar mot. Där är det ju just prishoppet som är problemet.

Permalänk
Medlem
Skrivet av aMp:

ökningen över en generation till en annan

Du väckte siffernörden i mig.

Utifrån Swecs prestandaindex vid release och US MSRP:
3090 -> 4090 = +81% prestanda (4K) och +7% pris
3080 -> 4080 = Kanske +50% prestanda (4K) och +72% pris
2080 -> 3080 = +70% prestanda (4K) eller + 59% prestanda (1440p) och +0% pris
1080 -> 2080 = +36% prestanda (1440p) och +17% pris
980 -> 1080 = +65% prestanda (1440p) och +9% pris
780 -> 980 = +28% prestanda (1440p) och +10% pris

Samt,
3080 -> Fejk 4080 = Kanske +20% prestanda (4K) och +27% pris

Priserna är 3e parts listpris. Hur väl de hölls i praktiken vet jag inte. Gick ju inte alls med 3080 t.ex...
Från 2080 och bakåt låg FE-priserna $100 över 3e parts. Nu för tiden är istället 3e parts priser aldrig lägre än Nvidias. Och ofta högre.

Inflation och ökade mm2 priser (AD103/104 är dock förhållandevis små) i all ära men som du och många innan det har sagt: 4080 priset är satt för att sälja 30-kort (eller 4090).

Permalänk
Medlem
Skrivet av ipac:

Du väckte siffernörden i mig.

Utifrån Swecs prestandaindex vid release och US MSRP:
3090 -> 4090 = +81% prestanda (4K) och +7% pris
3080 -> 4080 = Kanske +50% prestanda (4K) och +72% pris
2080 -> 3080 = +70% prestanda (4K) eller + 59% prestanda (1440p) och +0% pris
1080 -> 2080 = +36% prestanda (1440p) och +17% pris
980 -> 1080 = +65% prestanda (1440p) och +9% pris
780 -> 980 = +28% prestanda (1440p) och +10% pris

Samt,
3080 -> Fejk 4080 = Kanske +20% prestanda (4K) och +27% pris

Priserna är 3e parts listpris. Hur väl de hölls i praktiken vet jag inte. Gick ju inte alls med 3080 t.ex...
Från 2080 och bakåt låg FE-priserna $100 över 3e parts. Nu för tiden är istället 3e parts priser aldrig lägre än Nvidias. Och ofta högre.

Inflation och ökade mm2 priser (AD103/104 är dock förhållandevis små) i all ära men som du och många innan det har sagt: 4080 priset är satt för att sälja 30-kort (eller 4090).

3080 -> 4080 = Kanske +50% prestanda (4K) och +72% pris

Det här är hutlöst.

Blir definitivt Radeon nästa köp.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X