Skrivet av Roger W:
Jag visste inte ens att DLSS skalningen använde info från förra framen, men är ändå tveksam till räkneexemplet
Hur värderar man och räknar volymen på datat från en historisk frame? Visst kan man få fram viss data från den, och kanske tolka ut lite rörelsevektorer och annat, men vad blir den faktiska praktiska vinsten av det om målet inte är frame generation? Förstår inte heller riktigt var den utökade subpixelinfon kommer från?
Och det kommer ju alltid kunna finnas ny data i nästa frame som den inte kan räkna på.
...
Om historisk data från förra framen är tillräckligt användbart för att generellt boosta bildkvalitet (även om jag inte är direkt övertygad), så borde det inte vara svårt att göra en rendermotor som använder den datan utan att skala upp bilden
Blir ju som sagt omöjligt att rättvist och objektivt jämföra äpplen mot äpplen om man kastar ut native.
Går inte längre att bara benchmarka siffror och jämföra, utan det krävs även en rejäl analys av de olika "genererings"-tekniker och bena ut alla visuella skillnader mellan dem om det ska bli i närheten av rättvist... Och i slutändan blir det ändå väldigt subjektivt. (och lär diffa mycket mer från titel till titel)
Exempel: "ja, du får 10 fps mer med Nvidias uppskalning, men FSR ger jämnare frametimes och du slipper skimret i den blöta asfalten".
Vidhåller att en seriös testsida fortfarande behöver ha kvar fundamentet av vad hårdvaran klarar av i ren råprestanda som utgångspunkt, och sen bygga på med skalningstekniker ovanpå det.
Då DLSS4 precis gick ur beta och VideoCardz hade en bra "högnivåsammanfattning" kring detta klipper jag in den
"The new transformer model is more advanced than CNNs. It uses twice as many variables as the previous DLSS upscaling models and no longer focuses on localized content. Instead, the visual transformer processes the entire frame and evaluates the importance of each pixel, even across multiple frames."
"NVIDIA says the transformer model has a deeper understanding of scenes. It delivers more stable pixels (reducing shimmering and similar artifacts), less ghosting, better detail during motion, and smoother edges. It also improves Ray Reconstruction image quality, especially in scenes with challenging lighting."
Det sista nämner specifikt förbättringar i saker relaterade till sub-pixel problematic (reducing shimmering and similar artifacts) och redan tidigare versioner av DLSS än v4 hade sådana förbättringar som är rätt lätt att se när man spelar.
Orsaken till det är ju att i någon bemärkelse samma del blir renderad med lite olika offset m.a.p. var den hamnar i den pixel/pixels som täcks. D.v.s. mer information än vad "native" kan få.
Sen är det verkligen inte "äpplen mot äpplen". Man kan absolut säga att DLSS quality har mer information per pixel, men är lite svårt att säga exakt hur mycket, bl.a. då det är delvis inte exakt samma typ av information.
Det även om man bara antog att en enda föregående frame används som input, i praktiken fungerar ju DLSS4 i grunden som en LLM där redan renderade frames motsvarar "context" man har i sin chat. D.v.s. transformers-tekniken "förstår" vad man pratar i en LLM, medan DLSS4 "förstår hur scenen dynamiskt uppför sig och hur olika delar påverkar varandra".
Lite mer vanskligt att säga om även performance mode har mer data. Där är renderad upplösning så pass mycket lägre att det blir utmanande att inte få en lite "mjuk" bild även om man totalt sett har mer data än i "native".
Man kan, och i närtid bör, ha kvar "native". Men rätt säker att den teknik som nu används för DLSS super resolution och ray reconstruction kommer likt andra förändringar av hur man renderar kommer bli "native" relativt snart.
I det läget blir det folk idag kallar "native" lika relevant som att skulle ha krävt fortsatt test av t.ex. CPU-rendering. Det "gamla" sättet kommer bli ersatt och ju fler spel som i praktiken förutsätter tekniker likt DLSS för att fungera på low/mid-tier ju mindre relevant blir "native".
Men fattar absolut problemet med att INTE testa native. Man tappar då en gemensam grund (om vi förutsätter att samma shader producerar exakt samma resultat idag, vilket borde vara fallet då moderna GPUer följer IEEE754). Uppskalning (och även frame-gen) följer ju ingen standard, så de olika teknikerna ger ju olika output även om input är identiskt.
Man får då tyvärr en bedömningsdel. Vilket i.o.f.s. redan finns idag, t.ex. sådana saker som frame-to-frame jitter, etc.