DLSS 3 blir bättre på RTX 40‑serien

Permalänk
Medlem

Längtar, Alan Wake 2 är dessutom första spelet som får mega geomentry.

"Alan Wake 2 is upgrading its already-incredible engine with our new NVIDIA RTX Mega Geometry technology, in addition to DLSS 4."

https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-g...

Visa signatur

|AMD Ryzen 7 9800X3D| |ASrock B850 Steel Legend| |Kingston Fury Beast 32GB CL30@6000MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |NZXT C1200 Gold ATX 3.1| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Skrivet av DJ-SAAB:

De va en tid när allt handlade om rå prestanda och hypen över ny teknik, nu handlar det om vem som är värst med fejk prestanda. De är kul när tekniken utvecklas men inte på detta viss.

Att nyttja resurser mer effektivt lär ju vara en ganska bra sak för alla. Nu tar jag i lite men jämförelsen är väl nåt i stil med:
"Vi slår huvudet i denna tegelvägg för det är coolt!" När dörren är runt hörnet.
Rå kraft i all ära, men om du kan ta den där genvägen till en fraktion av energin som krävs för att nå dit så gör du det, även om resultatet inte är perfekt.

Ska nämnas att jag inte är så värst insatt i branschen men är inte all grafik som renderas genvägar på ett eller annat sätt? Som exempel vind i spel, det är inte äkta fysik, det är approximeringar. Reflektioner likaså. Var går gränsen och varför är just approximeringen som DLSS osv inte ok?

Visst är det något helt annorlunda än klassisk raster och många har under en lång tid lärt sig att något upplevs på ett visst sätt och förväntar sig det resultatet. När då ett nytt sätt att rendera pixlar uppstår som inte matchar förväntning verkar det skava en hel del för vissa. Sen går det alltid att argumentera för att upplevelsen subjektivt försämras och inte är perfekt.

Men majoriteten av kundbasen verkar nöjd. Vilket man ändå måste se som målet för Nvidia. Argumentationen om att "det är bara för att det är igång som standard" håller inte heller. För om man inte upplever problem och tycker det är "good enough" så är det exakt det, inget problem. Då ger teknikerna en bättre upplevelse i majoriteten av fall, pga. att man får mer detaljrikedom och fps. Sen kan man ju sätta person X och jämföra med/utan, men sådant scenario är helt orealistiskt för en vanlig konsument.

Sen blir tekniken bättre allt eftersom, det är inte direkt som att problemen kommer bestå i all oändlighet.

Visa signatur

Sweclockers 2024:
"
Eftersom vi tillhandahåller en öppen diskussionsplattform har vi ett berättigat intresse av att behålla användargenererat innehåll även efter en eventuell radering eller anonymisering av ditt användarkonto. Vi kommer även att fortsätta lagra vissa uppgifter för att upprätthålla säkerheten och förhindra missbruk av våra tjänster.
"

Permalänk
Medlem
Skrivet av xfade:

Spekulation samt $/SEK är linjärt för allt vi köper. Sen kan vi inte påverka dollarkursen.
Att jämföra 4070 Ti Super mot 5070 Ti som är 50$ billiagare samt knappt snabbare???

w00t??

Ser inget problem med den prissättningen... imho som vanligt.

Inte? Ponera att du då köpte 4070 ti super när det begav sig och nu går i tankar på att uppgradera till 5070 ti...?
Jag menar, 5070 ska ju slå 4090, eller hur?! Det är ju en helt ny generation och då givet att man kommer få mer för samma peng man lade när man köpte 4070 ti super. Eller det är åtminstone vad normalfuntat vanligt folk förutsätter.

MSRP för 4070 ti super var 799 USD. Kronkursen låg väl runt 10,19.
MSRP för 5070 ti är 749 USD. Kronkursen ligger på 11,19

799 x 10,19 x 1,25 = 10177 kr kostade 4070 ti super
749 x 11,19 x 1,25 = 10476 kr kommer 5070 ti kosta

Specifikationsmässigt så har 5070 ti endast 6% fler cuda kärnor än 4070 ti super. Boostfrekvensen tar ett kliv ned från 2,61Ghz till 2,45Ghz vilket motsvarar 94% av 4070 ti supers boostfrekvens. 33% ökning i minnesbandbredd. Utan raytracing som ger en boost på runt 30% så kommer prestandaökningen landa på ca 9%.

Hur många skulle betala mer än de gjorde för deras gamla kort och som tillhör en äldre generation för en prestandaökning om ynka 9%? Det vore ju helt absurt.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

Start från och med nu, vi kommer få börja betala för ny software med ”fuskframes” istället för faktiskt förbättrad hårdvara med ökad prestanda…
Nya kort kommer vara hårdvarulåsta till mjukvarorna.

Visa signatur

Chassi: Fractal Meshify Skärm: LG C2 oled GPU: 6950XT CPU: 5800X3D SSD: 480GB, M2 3TB PSU: Dark Power Pro 1,5KW Mobo: TUF GAMING X570-PLUS RAM: 32GB Ripjaws @ 3600MT Mus: Logitech G502X Matta: Steelseries QcK Heavy Tbord: Logitech MX Mech Mini Lurar: DT1990 Pro OS: Win10Pro AI: Tascam 20x20 Monitorer: Yamaha HS7 Router: Wyse 5070 @ opnsense WIFI: Ubiquiti U7 Pro Switch: Zyxel 2.5Gbit. Citera när ni svarar! :)

Permalänk
Medlem
Skrivet av Sveklockarn:

Multi Frame Generation och annan pixelutspädning med AI kommer att förstöra PC-spelandet. Är man nöjd med den nivån så kan man lika gärna spara sina pengar och köra spelen via GeForce Now! eller något liknande, alternativt bara kolla på Youtube/stream när någon annan spelar. 🤷‍♂️

Tror detta är symptom på en generation som växt upp och fått sin pixelmättnad från mobilspel och streaming. Bara det går fort att spela hjärnröta som Fortnite och liknande så är allt fantastiskt.

Ja, visst, men sanningen är att kisel blir allt dyrare på avancerade noder. Priset per enskild transistor ökar, alltså ökar priset på att tillverka samma krets som förra generationen

Prestandan skalar också mycket sämre på nya noder, inte alls någon väsentlig ökning av klockfrekvenser, det enda som fortfarande skalar bra är energieffektivitet. Alltså att man kan köra samma prestanda lite effektivare på nya noder, vilket mest hjälper laptop/mobil/tablet

Det naturliga blir då att börja skala med mjukvara istället, vilket är precis vad DLSS är, och att specifikt begränsa nya versioner till senaste generationens chip. Exakt det som Apple gjort i år och dag redan. Alltså medvetet utelämnande av tekniker i årets chip som man vill sälja in nästa år (och redan planerat för)

Det är ganska ruttet, men också precis det enda som går att göra snart. Nvidia har lagt miljontals timmar på att kräma ur maximal prestanda ur ett gäng transistorer, i flera årtionden, nu är man framme vid en punkt där hårvaran börjar bli dyrare, man får ingenting gratis av nodbyten som man fick förr, snarare tvärt om!

Permalänk
Medlem
Skrivet av medbor:

Ja, visst, men sanningen är att kisel blir allt dyrare på avancerade noder. Priset per enskild transistor ökar, alltså ökar priset på att tillverka samma krets som förra generationen

Prestandan skalar också mycket sämre på nya noder, inte alls någon väsentlig ökning av klockfrekvenser, det enda som fortfarande skalar bra är energieffektivitet. Alltså att man kan köra samma prestanda lite effektivare på nya noder, vilket mest hjälper laptop/mobil/tablet

Det naturliga blir då att börja skala med mjukvara istället, vilket är precis vad DLSS är, och att specifikt begränsa nya versioner till senaste generationens chip. Exakt det som Apple gjort i år och dag redan. Alltså medvetet utelämnande av tekniker i årets chip som man vill sälja in nästa år (och redan planerat för)

Det är ganska ruttet, men också precis det enda som går att göra snart. Nvidia har lagt miljontals timmar på att kräma ur maximal prestanda ur ett gäng transistorer, i flera årtionden, nu är man framme vid en punkt där hårvaran börjar bli dyrare, man får ingenting gratis av nodbyten som man fick förr, snarare tvärt om!

Jag har iofs länge undrat varför det inte implementerats för länge sen som extra feature? Jag menar, hur länge har den sortens interpolering inte funnits i TV-apparater? 20 år snart? Det är väl främst för att det kommer med en fördröjning snarare än att minska latenserna som konventionell bildfrekvensökning gör från vanlig beräkningskraft. Men det fanns under game mode på min samsung-TV innan det blev en grej för grafikkort och då med minimalt ökad latens. Men samtidigt så handlar ju spelande om att något som ska vara responsivt. Att det ser smooth ut är ju mer en bieffekt av det faktum att man pushar höga bildfrekvenser av att få ned latenserna.

Det som är kul med spelande är tajming. Tänk första super mario bros. Det var ju totalt ospelbart under ganska lång tid när man gick över till plasma och LCD innan man började mäta input lag och göra något åt det. Och jag vill hävda att dessa spel fortfarande lämpar sig bäst på CRT av just denna anledningen att det inte kommer med någon fördröjning.

Så att något ska se "smooth" ut som självändamål är rätt dumt. Varför PC-spelare lever med uppfattningen att du måste ha höga bildfrevenser för att något ska se smooth ut är nog främst för att de inte förstår att konsolspel som körs i 30fps oftast är optimerade för att inte droppa under denna frekvens. Det finns alltså ett utrymme för högre bildfrekvens men att man låser denna för att få jämna renderingstider. Många tänker att känslan av 30fps är detsamma som när man precis nå lyckades 30fps i Crysis när det begav sig. Hur jävla illa det kändes att med mus och ocappad bildfrekvens försöka navigera spelet som hovrade mellan 25-35fps i bästa fall. Jag vill hävda att 30fps kan vara smooth nog för att man inte ska tänka på att det bara är 30fps i vissa typer av spel. Körde Dragon Quest XI på på flickvännens gamla dator kopplad till hennes 720p plasma. Detta med ett GTX 960 2GB och kunde. Kunde eliminera all shimmering i gräs mm genom att rendera spelet i 1440p med låsta 30fps med 2GB vram med jämna renderingstider fastän jag har för mig att spelet överskred grafikkortets vram (om jag inte missminner mig). Tredjeperson med långsamt panorerande kamera och turbaserad spelmekanik och jag tänkte då inte öht på att spelet kördes i 30fps. tror jag la över 180 timmar i spelet. När jag spelar Quake Champions däremot har jag kört både uncapped och med låsta 240fps. Man vänjer sig snabbt hur smooth någonting är och slutar tänka på det förutsatt att det är jämna renderingstider. Vad som däremot kan bli en nackdel är om latenserna är höga i spel som kräver tajming på inputs.

Risken om framtiden ligger i att spelutvecklare måste ha höga latenser i beaktning kommer bli än fler gångsimulatorer och än mindre spelglädje som timingbaserade spel medför.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

det känns som vi skulle behöva återuppliva Voodoo korten ett extra PCI kort för att "avlasta" CPU/GPU så ett DLSS kort 😅

Permalänk
Medlem

Perfekt! Ge oss mer uppdateringar och prestanda till våra 40-kort

Visa signatur

TV: LGOLED65B1
PC:
Corsair Crystal 570X - ASUS ROG Strix B560-A GAMING - i9 11900K - Asus TUF RTX 4090
OC24 Gaming - SAMSUNG 960 EVO 250GB - SAMSUNG 980 PRO 1TB - Corsair Vengeance RGB PRO DDR4 3600MHz 64GB - Corsair RM1000i - ASUS VG27BQ - Steel Series Apex Pro - Steel Series Rival 5.
Mobil: Samsung S24plus

Permalänk
Medlem
Skrivet av wootz91:

Jag älskar DLSS. Gick från ett 1080 till 4060 och förväntade mig ingen stor skillnad men tack vare dlss kan jag köra med mycket högre inställningar.

Men till sämre bildkvalitet. Så många som går på den där bluffen

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Skrivet av Chris_Kadaver:

Inte? Ponera att du då köpte 4070 ti super när det begav sig och nu går i tankar på att uppgradera till 5070 ti...?
Jag menar, 5070 ska ju slå 4090, eller hur?! Det är ju en helt ny generation och då givet att man kommer få mer för samma peng man lade när man köpte 4070 ti super. Eller det är åtminstone vad normalfuntat vanligt folk förutsätter.

MSRP för 4070 ti super var 799 USD. Kronkursen låg väl runt 10,19.
MSRP för 5070 ti är 749 USD. Kronkursen ligger på 11,19

799 x 10,19 x 1,25 = 10177 kr kostade 4070 ti super
749 x 11,19 x 1,25 = 10476 kr kommer 5070 ti kosta

Specifikationsmässigt så har 5070 ti endast 6% fler cuda kärnor än 4070 ti super. Boostfrekvensen tar ett kliv ned från 2,61Ghz till 2,45Ghz vilket motsvarar 94% av 4070 ti supers boostfrekvens. 33% ökning i minnesbandbredd. Utan raytracing som ger en boost på runt 30% så kommer prestandaökningen landa på ca 9%.

Hur många skulle betala mer än de gjorde för deras gamla kort och som tillhör en äldre generation för en prestandaökning om ynka 9%? Det vore ju helt absurt.

Du påvisar ju själv varför korten kostar som det gör... Valutan vi använder är ju inte I sitt starkaste skede

Skrivet av Chris_Kadaver:

Jag har iofs länge undrat varför det inte implementerats för länge sen som extra feature? Jag menar, hur länge har den sortens interpolering inte funnits i TV-apparater? 20 år snart? Det är väl främst för att det kommer med en fördröjning snarare än att minska latenserna som konventionell bildfrekvensökning gör från vanlig beräkningskraft. Men det fanns under game mode på min samsung-TV innan det blev en grej för grafikkort och då med minimalt ökad latens. Men samtidigt så handlar ju spelande om att något som ska vara responsivt. Att det ser smooth ut är ju mer en bieffekt av det faktum att man pushar höga bildfrekvenser av att få ned latenserna.

Det som är kul med spelande är tajming. Tänk första super mario bros. Det var ju totalt ospelbart under ganska lång tid när man gick över till plasma och LCD innan man började mäta input lag och göra något åt det. Och jag vill hävda att dessa spel fortfarande lämpar sig bäst på CRT av just denna anledningen att det inte kommer med någon fördröjning.

Så att något ska se "smooth" ut som självändamål är rätt dumt. Varför PC-spelare lever med uppfattningen att du måste ha höga bildfrevenser för att något ska se smooth ut är nog främst för att de inte förstår att konsolspel som körs i 30fps oftast är optimerade för att inte droppa under denna frekvens. Det finns alltså ett utrymme för högre bildfrekvens men att man låser denna för att få jämna renderingstider. Många tänker att känslan av 30fps är detsamma som när man precis nå lyckades 30fps i Crysis när det begav sig. Hur jävla illa det kändes att med mus och ocappad bildfrekvens försöka navigera spelet som hovrade mellan 25-35fps i bästa fall. Jag vill hävda att 30fps kan vara smooth nog för att man inte ska tänka på att det bara är 30fps i vissa typer av spel. Körde Dragon Quest XI på på flickvännens gamla dator kopplad till hennes 720p plasma. Detta med ett GTX 960 2GB och kunde. Kunde eliminera all shimmering i gräs mm genom att rendera spelet i 1440p med låsta 30fps med 2GB vram med jämna renderingstider fastän jag har för mig att spelet överskred grafikkortets vram (om jag inte missminner mig). Tredjeperson med långsamt panorerande kamera och turbaserad spelmekanik och jag tänkte då inte öht på att spelet kördes i 30fps. tror jag la över 180 timmar i spelet. När jag spelar Quake Champions däremot har jag kört både uncapped och med låsta 240fps. Man vänjer sig snabbt hur smooth någonting är och slutar tänka på det förutsatt att det är jämna renderingstider. Vad som däremot kan bli en nackdel är om latenserna är höga i spel som kräver tajming på inputs.

Risken om framtiden ligger i att spelutvecklare måste ha höga latenser i beaktning kommer bli än fler gångsimulatorer och än mindre spelglädje som timingbaserade spel medför.

Att Interpolpolera en film är inte samma sak som Interpolpolera något interaktivt...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

Du påvisar ju själv varför korten kostar som det gör... Valutan vi använder är ju inte I sitt starkaste skede

Att Interpolpolera en film är inte samma sak som Interpolpolera något interaktivt...

Tror du folk bryr sig om anledningen? Eller tror du att de endast bryr sig om det faktiska utfallet av en svag svensk krona när det kommer till kostnader i förhållande till vad de tidigare betalat? Det enda folk bryr sig om vid ett generationsskifte är att du till samma kostnad du tidigare betalat ska få bättre prestanda. Samma prestanda till samma pris är liksom ingen uppgradering värd namnet. Om inte tillverkare eller ÅF vill stå för kostnaden av en försvagad krona. Varför skulle du då eller jag vilja göra det?! Framförallt om utfallet inte blir någon förbättring sett till det man redan har. Då finns noll incitament att uppgradera.

TVn interpolera den bildsignal som kommer oavsett om källan spelar upp en film eller spel. Det gör den ingen skillnad på. Om en processor som hanterade en TVs menyer för typ 20 år sen med en viss fördröjning kunde interpolera bildsignalen så borde grafikkorten redan då kunnat göra detta med betydligt lägre fördröjning. Som på Samsungs TV-apparater idag klarar med låg fördröjning, så var beräkningakapaciteten hos grafikkort för låt säga, åtminstone 10 år sen betydligt högre än Samsungs TVns. Och det faktum att lossless scaling gör detta så krävs ju uppenbarligen ingen särskild hårdvara egentligen. Det funkar på äldre grafikkort som RX 570 mfl.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Skrivet av Chris_Kadaver:

Tror du folk bryr sig om anledningen? Eller tror du att de endast bryr sig om det faktiska utfallet av en svag svensk krona när det kommer till kostnader i förhållande till vad de tidigare betalat? Det enda folk bryr sig om vid ett generationsskifte är att du till samma kostnad du tidigare betalat ska få bättre prestanda. Samma prestanda till samma pris är liksom ingen uppgradering värd namnet. Om inte tillverkare eller ÅF vill stå för kostnaden av en försvagad krona. Varför skulle du då eller jag vilja göra det?! Framförallt om utfallet inte blir någon förbättring sett till det man redan har. Då finns noll incitament att uppgradera.

TVn interpolera den bildsignal som kommer oavsett om källan spelar upp en film eller spel. Det gör den ingen skillnad på. Om en processor som hanterade en TVs menyer för typ 20 år sen med en viss fördröjning kunde interpolera bildsignalen så borde grafikkorten redan då kunnat göra detta med betydligt lägre fördröjning. Som på Samsungs TV-apparater idag klarar med låg fördröjning, så var beräkningakapaciteten hos grafikkort för låt säga, åtminstone 10 år sen betydligt högre än Samsungs TVns. Och det faktum att lossless scaling gör detta så krävs ju uppenbarligen ingen särskild hårdvara egentligen. Det funkar på äldre grafikkort som RX 570 mfl.

Lossless scaling är ju långt ifrån perfekt med kraftiga artifakter och ghosting samt input latency? Nästan 100ms fördröjning...
.
https://www.eurogamer.net/digitalfoundry-2024-frame-generatio...

Interpolering på tv är väl inte super populärt heller? Eller speciellt bra....

Edit
Sen angående priset så är man oförstående så är man...
Om valutan tappar 10-15% så blir det inte sänkt pris

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Inte? Ponera att du då köpte 4070 ti super när det begav sig och nu går i tankar på att uppgradera till 5070 ti...?
Jag menar, 5070 ska ju slå 4090, eller hur?! Det är ju en helt ny generation och då givet att man kommer få mer för samma peng man lade när man köpte 4070 ti super. Eller det är åtminstone vad normalfuntat vanligt folk förutsätter.

MSRP för 4070 ti super var 799 USD. Kronkursen låg väl runt 10,19.
MSRP för 5070 ti är 749 USD. Kronkursen ligger på 11,19

799 x 10,19 x 1,25 = 10177 kr kostade 4070 ti super
749 x 11,19 x 1,25 = 10476 kr kommer 5070 ti kosta

Specifikationsmässigt så har 5070 ti endast 6% fler cuda kärnor än 4070 ti super. Boostfrekvensen tar ett kliv ned från 2,61Ghz till 2,45Ghz vilket motsvarar 94% av 4070 ti supers boostfrekvens. 33% ökning i minnesbandbredd. Utan raytracing som ger en boost på runt 30% så kommer prestandaökningen landa på ca 9%.

Hur många skulle betala mer än de gjorde för deras gamla kort och som tillhör en äldre generation för en prestandaökning om ynka 9%? Det vore ju helt absurt.

Problemet är att vi är vana vid att allt tar ett steg med nya generationer..

60 kort presterar som ett 70 kort
70 kort presterar som ett 80 kort
osv
osv

Detta har mer eller mindre stämt i många år som ett minimum på ökningen med varje ny generation grafikkort. Men med denna ser det ut som att Nvidia bryter denna tränd och dom nya korten blir knappt bättre än nuvarande generationen och ökningen helt förlitar sig på nya mjukvarilösningar (DLSS).

EXTREMT många är inte glada över detta och oroliga över vart det kommer göra med marknaden om det fortsätter.

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av norrby89:

Problemet är att vi är vana vid att allt tar ett steg med nya generationer..

60 kort presterar som ett 70 kort
70 kort presterar som ett 80 kort
osv
osv

Detta har mer eller mindre stämt i många år som ett minimum på ökningen med varje ny generation grafikkort. Men med denna ser det ut som att Nvidia bryter denna tränd och dom nya korten blir knappt bättre än nuvarande generationen och ökningen helt förlitar sig på nya mjukvarilösningar (DLSS).

EXTREMT många är inte glada över detta och oroliga över vart det kommer göra med marknaden om det fortsätter.

Och jag kommer ihåg när jag bytte från en P133 (1995) till en P2-450 (1998), men det blir inte sådana steg längre. Min senaste CPU gick från 13700K till 9800X3D, i många spel (kanske dom flesta) är det ingen praktisk skillnad.

Nvidia är duktiga men inte ens dom kan bryta fysikens lagar. Därför plöjer dom ny mark med mjukvara, något dom förmedlat dom senaste 7 åren typ...

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Devil May Cry:

Längtar, Alan Wake 2 är dessutom första spelet som får mega geomentry.

Bra där. AW2 har alltid varit för lättdrivet.

Permalänk
Medlem
Skrivet av ipac:

Bra där. AW2 har alltid varit för lättdrivet.

Fast RTX Mega Geometry, som tycks vara den största uppgradering i AW2, ska snarare effektivisera främst BVH-byggandet som görs vid RT/PT och minska mängden jobb som behöver utföras både på CPU och GPU, så spelet bör ju om något bli lite mer lättdrivet nu.

Permalänk
Skrivet av InteIdiot:

Det är väl inte DLSS 3 som förbättras, nyheten är väl DLSS 4 och DLSS Override i Nvidia-appen? Som Nvidia berättade för snart två veckor sedan?
https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-g...

Även Reflex 2 kommer till äldre kort:
https://www.nvidia.com/en-us/geforce/news/reflex-2-even-lower...

Ja, följer man X-tråden bakåt som länkas till i artikeln, så skriver Freeman att det är DLSS 4 han syftar på. Så man får väl anta att denna förbättring rullas ut i samband med det. Kommer DLSS 4 per automatik ersätta DLSS 3 vad gäller frame gen? Eller måste det implementeras på spelbasis? Isf är ju rubriken till artikeln lite missvisande. 🤔

Förtydligande
Permalänk
Medlem
Skrivet av meanh:

Fast RTX Mega Geometry, som tycks vara den största uppgradering i AW2, ska snarare effektivisera främst BVH-byggandet som görs vid RT/PT och minska mängden jobb som behöver utföras både på CPU och GPU, så spelet bör ju om något bli lite mer lättdrivet nu.

Absolut men jag tänker att de motverkar effektiviseringen med att slänga på än mer belastning

(kanske ska vara tydlig: jag gillar verkligen spel som AW2,som pushar realtids-grafik mot nya höjder)

Permalänk
Medlem
Skrivet av norrby89:

Problemet är att vi är vana vid att allt tar ett steg med nya generationer..

60 kort presterar som ett 70 kort
70 kort presterar som ett 80 kort
osv
osv

Detta har mer eller mindre stämt i många år som ett minimum på ökningen med varje ny generation grafikkort. Men med denna ser det ut som att Nvidia bryter denna tränd och dom nya korten blir knappt bättre än nuvarande generationen och ökningen helt förlitar sig på nya mjukvarilösningar (DLSS).

EXTREMT många är inte glada över detta och oroliga över vart det kommer göra med marknaden om det fortsätter.

Folk kan vara hur oglada de vill. Det är så verkligheten ser ut. Node övergångar är inte vardagsmat längre och därmed blir stora prestandahopp dyrköpta.

Vore bättre om folk slutar att ständigt titta bakåt och istället tar till sig den verklighet som råder nu.

Visst, Nvidia hade absolut kunnat slänga mer die-yta (och ökad effektåtgång, nått folk redan gnäller på) på det hela för att uppnå större prestandahopp (att 5070 var baserad motsvarande AD103 t.ex.). De hade inte gått i konkurs för det. Men det är knappast hållbart i längden att för varje generation "ta i mer" (vore iofs rätt coolt med en 8060 med 102-krets ). Och framförallt så är inte Nvidia i den positionen att de behöver göra det - en annan verklighet som det är lika bra att ta till sig istället för att blicka bakåt.

(sen är ju inte DLSS enbart mjukvara om man ska vara noga, 50-serien ger ju trots allt klart mer kraftfull Tensor-lösning)

Permalänk
Medlem

Mycket sevärd intervju. Vi får nog alla inse att FG och DLSS är här för att stanna. Det nämndes 1000Hz-skärmar i framtiden och att rendera i 1000Hz i kanske 4K lär ju inte vara möjligt utan dessa tekniker. Nu är ju den springande punkten om det går att generera den här typen av kvalitativ grafik utan störande artefakter och det får vi väl se när testerna ramlar in. Samtidigt stannar ju inte utvecklingen här, Bryan lyfter flera tekniker som det funderas på inför kommande versioner.

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Jag har iofs länge undrat varför det inte implementerats för länge sen som extra feature? Jag menar, hur länge har den sortens interpolering inte funnits i TV-apparater? 20 år snart? Det är väl främst för att det kommer med en fördröjning snarare än att minska latenserna som konventionell bildfrekvensökning gör från vanlig beräkningskraft. Men det fanns under game mode på min samsung-TV innan det blev en grej för grafikkort och då med minimalt ökad latens. Men samtidigt så handlar ju spelande om att något som ska vara responsivt. Att det ser smooth ut är ju mer en bieffekt av det faktum att man pushar höga bildfrekvenser av att få ned latenserna.

Det som är kul med spelande är tajming. Tänk första super mario bros. Det var ju totalt ospelbart under ganska lång tid när man gick över till plasma och LCD innan man började mäta input lag och göra något åt det. Och jag vill hävda att dessa spel fortfarande lämpar sig bäst på CRT av just denna anledningen att det inte kommer med någon fördröjning.

Så att något ska se "smooth" ut som självändamål är rätt dumt. Varför PC-spelare lever med uppfattningen att du måste ha höga bildfrevenser för att något ska se smooth ut är nog främst för att de inte förstår att konsolspel som körs i 30fps oftast är optimerade för att inte droppa under denna frekvens. Det finns alltså ett utrymme för högre bildfrekvens men att man låser denna för att få jämna renderingstider. Många tänker att känslan av 30fps är detsamma som när man precis nå lyckades 30fps i Crysis när det begav sig. Hur jävla illa det kändes att med mus och ocappad bildfrekvens försöka navigera spelet som hovrade mellan 25-35fps i bästa fall. Jag vill hävda att 30fps kan vara smooth nog för att man inte ska tänka på att det bara är 30fps i vissa typer av spel. Körde Dragon Quest XI på på flickvännens gamla dator kopplad till hennes 720p plasma. Detta med ett GTX 960 2GB och kunde. Kunde eliminera all shimmering i gräs mm genom att rendera spelet i 1440p med låsta 30fps med 2GB vram med jämna renderingstider fastän jag har för mig att spelet överskred grafikkortets vram (om jag inte missminner mig). Tredjeperson med långsamt panorerande kamera och turbaserad spelmekanik och jag tänkte då inte öht på att spelet kördes i 30fps. tror jag la över 180 timmar i spelet. När jag spelar Quake Champions däremot har jag kört både uncapped och med låsta 240fps. Man vänjer sig snabbt hur smooth någonting är och slutar tänka på det förutsatt att det är jämna renderingstider. Vad som däremot kan bli en nackdel är om latenserna är höga i spel som kräver tajming på inputs.

Risken om framtiden ligger i att spelutvecklare måste ha höga latenser i beaktning kommer bli än fler gångsimulatorer och än mindre spelglädje som timingbaserade spel medför.

Höga latenser är helt okej i spel med timing, eller strategi, men fungerar inte alls om spelen kräver reaktionstid alls

Stora skillnaden jämfört med TV är ju att även 30 sekunder fördröjning inte är något problem. Latens är inget alls problem i det sammanhanget. Man kan interpolera från både tidigare och flera ’framtida’ bildrutor utan att det är ett problem

Permalänk
Medlem

Det är det väl?
Det där säger ju att DLSS4 Frame Gen kommer till 40-serien?
Artikeln snackar om uppdaterade drivrutiner för DLSS3 Frame Gen..

Om det är samma sak så har någon misslyckats totalt med namngivningen av dessa funktioner..

Permalänk
Medlem
Skrivet av Chris_Kadaver:

Inte? Ponera att du då köpte 4070 ti super när det begav sig och nu går i tankar på att uppgradera till 5070 ti...?
Jag menar, 5070 ska ju slå 4090, eller hur?! Det är ju en helt ny generation och då givet att man kommer få mer för samma peng man lade när man köpte 4070 ti super. Eller det är åtminstone vad normalfuntat vanligt folk förutsätter.

MSRP för 4070 ti super var 799 USD. Kronkursen låg väl runt 10,19.
MSRP för 5070 ti är 749 USD. Kronkursen ligger på 11,19

799 x 10,19 x 1,25 = 10177 kr kostade 4070 ti super
749 x 11,19 x 1,25 = 10476 kr kommer 5070 ti kosta

Specifikationsmässigt så har 5070 ti endast 6% fler cuda kärnor än 4070 ti super. Boostfrekvensen tar ett kliv ned från 2,61Ghz till 2,45Ghz vilket motsvarar 94% av 4070 ti supers boostfrekvens. 33% ökning i minnesbandbredd. Utan raytracing som ger en boost på runt 30% så kommer prestandaökningen landa på ca 9%.

Hur många skulle betala mer än de gjorde för deras gamla kort och som tillhör en äldre generation för en prestandaökning om ynka 9%? Det vore ju helt absurt.

Dollarkursen är inte mycket att göra åt.
Sen är det ett Ti Super vs ett prissänkt Ti.

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R4 | Win11Pro | R7-5800X | PA 120SE | ROG STRIX B550-F GAMING | CMN32GX4M2Z4600C18 | 4070 Ti | AX750 | Asus VG27WQ | HP Z27n |► Realme GT Master |

Permalänk
Medlem
Skrivet av Tanax:

Det är det väl?
Det där säger ju att DLSS4 Frame Gen kommer till 40-serien?
Artikeln snackar om uppdaterade drivrutiner för DLSS3 Frame Gen..

Om det är samma sak så har någon misslyckats totalt med namngivningen av dessa funktioner..

Eller så har nån misslyckats med en artikel och en rubrik.. Igen.

Enhanced Frame Gen är en feature som ryms inom DLSS4 (som alltså rymmer flera olika features). Inte DLSS3. Så att säga att DLSS3 har uppdaterats är helt enkelt felaktigt.

Permalänk
Medlem
Skrivet av The_Lasse_of_Us:

Ja, följer man X-tråden bakåt som länkas till i artikeln, så skriver Freeman att det är DLSS 4 han syftar på. Så man får väl anta att denna förbättring rullas ut i samband med det. Kommer DLSS 4 per automatik ersätta DLSS 3 vad gäller frame gen? Eller måste det implementeras på spelbasis? Isf är ju rubriken till artikeln lite missvisande. 🤔

Som jag förstår det kommer man att kunna välja vilken modell som används för framegen i Nvidia App om spelet inte har stöd för DLSS 4 inbyggt. Jag antar att spelet behöver stöd för DLSS framegen för att det ska funka.

Permalänk
Medlem

Jag får erkänna att jag har svårt att förstå den totala avskyn emot DLSS, uppskalning och "Frame generation". Det talas om "Falska pixlar" etc. Alla pixlar är ju falska.
När man började med pixelshaders för exempelvis vatteneffekter, blev man lika upprörd då? Det är ju inte en korrekt framställning av verkligt vatten.

Den slutgiltiga upplevelsen för användaren är det viktiga, sett till hur hela mediet spel är en skapad verklighet ändå. Använd det inte om ni inte vill såklart, det är fritt fram, men att finna något sorts ideologisk ställningstagande i det ter sig för mig en smula bisarrt

Krasst sett; vi har inte hårdvara kraftfull nog att åstadkomma x antal FPS i högre upplösning och lär så inte ha på MÅÅÅNGA år.
Ej heller har vi någonsin haft kraftfull hårdvara nog att, om man skall vara sån, rendera spel KORREKT, dvs. ray/path tracing. Vi har alltså fakeat allt ljus och skuggor sedan 3d-grafikens intåg fram tills nu. Det är lika fake som att generera extra rutor eller skala upp existerande.

Permalänk
Medlem
Skrivet av krEJZi:

DLSS är ett namn på flertalet inbakade funktioner. DLSS4 innebär bara att man lagt till DLSS-multibildgenerering och förbättrat resterande funktioner från DLSS3. DLSS3 ersätts ju av DLSS4.

DLSS-multibildgenerering
DLSS-bildgenerering
DLSS-strålrekonstruktion
DLSS Super-upplösning
kantutjämning med djupinlärning

Äldre generationer grafikkort har inte stöd för alla dessa funktioner. DLSS-multibildgenerering stöds bara av 50xx generationen. DLSS-bildgenerering stöds av 50xx och 40xx. 30xx har stöd för de tre andra.

Skrivet av Tanax:

Det är det väl?
Det där säger ju att DLSS4 Frame Gen kommer till 40-serien?
Artikeln snackar om uppdaterade drivrutiner för DLSS3 Frame Gen..

Om det är samma sak så har någon misslyckats totalt med namngivningen av dessa funktioner..

Skrivet av ipac:

Eller så har nån misslyckats med en artikel och en rubrik.. Igen.

Enhanced Frame Gen är en feature som ryms inom DLSS4 (som alltså rymmer flera olika features). Inte DLSS3. Så att säga att DLSS3 har uppdaterats är helt enkelt felaktigt.

@Tanax, se första citatet ovan. Som förklaras där (och syns i bilden på inlägget du svarade) så ersätter DLSS 4 DLSS 3. DLSS 4 innehåller allt de tidigare versionerna gjorde samt lägger till MFG (vilken blir exklusiv för RTX 50).
Det är alltså en kombination av en misslyckad namngivning som du är inne på, samt en aningen missvisande rubrik och artikel.

Visa signatur

Nr 1: X670, 7800X3D, Peerless Assassin, 32GB 6000MHz CL36, 9070 XT, SN850X 1TB + MP600 Pro 2TB, V850 Gold i Multi, FD North.
Nr 2: B550, 5700X, Hyper 212 Evo V2, 32GB 3200MHz CL16, 1080 Ti, Firecuda 510 1TB + HDD 3TB, Focus GX 650W, Pure Base 500DX.
Någon laptop eller två.

Permalänk
Medlem
Skrivet av ipac:

Eller så har nån misslyckats med en artikel och en rubrik.. Igen.

Enhanced Frame Gen är en feature som ryms inom DLSS4 (som alltså rymmer flera olika features). Inte DLSS3. Så att säga att DLSS3 har uppdaterats är helt enkelt felaktigt.

Skrivet av Snusious:

@Tanax, se första citatet ovan. Som förklaras där (och syns i bilden på inlägget du svarade) så ersätter DLSS 4 DLSS 3. DLSS 4 innehåller allt de tidigare versionerna gjorde samt lägger till MFG (vilken blir exklusiv för RTX 50).
Det är alltså en kombination av en misslyckad namngivning som du är inne på, samt en aningen missvisande rubrik och artikel.

Tack båda!
Vilket jäkla härke...

Så om jag förstått det rätt så kan man alltså förenklat säga att fr.o.m nu så "finns inte"/används inte DLSS3 längre, utan nu är det DLSS4 som gäller och stöds av alla generationer av Nvidia GPUer (bara att alla teknologier inom DLSS4 inte stöds på alla generationer)?

Permalänk
Medlem
Skrivet av Tanax:

Tack båda!
Vilket jäkla härke...

Så om jag förstått det rätt så kan man alltså förenklat säga att fr.o.m nu så "finns inte"/används inte DLSS3 längre, utan nu är det DLSS4 som gäller och stöds av alla generationer av Nvidia GPUer (bara att alla teknologier inom DLSS4 inte stöds på alla generationer)?

Ja. Påminner lite om situationen med Hdmi.

Stackars Laxpudding får år efter år tjata på folk att prata om HDMI funktion, inte version. Lite samma här. Prata om funktioner som t.ex. Frame Gen, inte om DLSS versioner.

"Frame Gen blir bättre på 40-serien" hade således varit en korrekt rubrik.

Permalänk
Medlem
Skrivet av Tanax:

Tack båda!
Vilket jäkla härke...

Så om jag förstått det rätt så kan man alltså förenklat säga att fr.o.m nu så "finns inte"/används inte DLSS3 längre, utan nu är det DLSS4 som gäller och stöds av alla generationer av Nvidia GPUer (bara att alla teknologier inom DLSS4 inte stöds på alla generationer)?

Förenklat kan man ungefär säga så ja.
Som det alltid varit med DLSS måste spelskaparna implementera/uppdatera till senaste versionen. Många spelare har gjort det manuellt genom att byta ut dll-filen i de fall skaparna inte gör det. Denna process ska faktiskt göras enklare med nästa version av Nvidias app, där man ska kunna överskrida till senaste version i appen.
Se en bit ner i Nvidias presentation av DLSS 4, DLSS 4 intro.

Visa signatur

Nr 1: X670, 7800X3D, Peerless Assassin, 32GB 6000MHz CL36, 9070 XT, SN850X 1TB + MP600 Pro 2TB, V850 Gold i Multi, FD North.
Nr 2: B550, 5700X, Hyper 212 Evo V2, 32GB 3200MHz CL16, 1080 Ti, Firecuda 510 1TB + HDD 3TB, Focus GX 650W, Pure Base 500DX.
Någon laptop eller två.