Jonas pratar DLSS 2.0 och uppskalning med maskininlärning

Permalänk
Melding Plague

Jonas pratar DLSS 2.0 och uppskalning med maskininlärning

Att med maskininlärning skala upp grafik i spel fortsätter vara en het tekniksnackis. Jonas går igenom fenomenet med Calle på FZ.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Digital Foundry har en sevärd video angående 2.0 i Control

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Digital Foundry har en sevärd video angående 2.0 i Control
https://youtu.be/YWIKzRhYZm4

Kan vara värt att nämna att utvecklarna av Control inte använde sig av tensor-kärnorna till deras första version av DLSS utan använde sig av de vanliga cuda-kärnorna så det visar ju att man inte behöver tensor-kärnor men att de nog hjälper till en hel del då DLSS 2.0 vs 1.9 är rätt mycket bättre.

Permalänk
Quizmästare Gävle 2022

Det är intressant teknik

Tror dock inte på att Nvidia kommer kunna köra det proprietärt. Hur många gånger har dom inte redan försökt detta med olika tekniker.... Nej, dags för dom att lägga ner alla dessa försök. Använd tiden till annat. Skulle dom ändå lyckas så lär dom ju ändå få diverse konkurrensverk efter sig.

Man får ändå ge Nvidia cred för att de ligger i framkant på många områden och gjort det under lång tid. Bra många felsteg också om man frågar mig... mycket kopplat till att man vill äga hela marknaden själva....

Visa signatur
Permalänk
Medlem

Ja, jag är 10 dagar sen. Men efter att ha kollat igenom många kommentarer igår (inte här, på andra ställen) så verkar det vara många som inte helt greppar vad DLSS är. Det manade mig till att skriva det här inlägget.

Kommer att köra en sammanfattning av deras video där de beskriver hur DLSS 2.0 fungerar och vad som skiljer det från innan. Kommer dock att referera till en video på youtube för att få med tidsstämplar på vissa citat så att de kan kontrolleras enkelt. Jag för även fram kritik som inte handlar om DLSS i sig självt (jag tycker metoden är bra), utan om hur NVIDIA kommunicerat det.

För att göra det lite mer organiserat så har jag delat upp det i sektioner. En som förklarar vad det är, en som visar prestandan, en som innehåller kritik mot NVIDIAs kommunikation, och slutligen slumpvisa kommentarer om videon.

DLSS 1.0
DLSS 1.0 behandlar en bild i taget genom att försöka lista ut hur en högupplöst bild skulle se ut. Detta görs genom att den kollar på pixlarna i närheten i en bild och försöker lista ut hur någonting skulles se ut som en högupplöst bild. Eftersom det varierar från spel till spel (t.ex en grå klump kan vara allt från en sten till en robot) så är det bäst om den tränas från spel till spel. Den kan även ”hallucinera” och skapa detaljer som inte finns där på riktigt p.g.a. otillräcklig träningsdata. Med endast en bild så är det även svårt att skapa detaljer och finns större risk för att hallucinera (tror de menar i realtid här. Det går att skapa mer detaljrika bilder, men det tar längre tid som inte passar in i deras budget, se t.ex AMDs imagefilters ).

Det är även svårt att skapa temporalt stabila resultat med en bild.
Tydligen så ska det vara två nätverk, ett för att skapa en typ av maskininlärd TAA på en lågupplöst bild, och ett för att skala upp den lågupplösta bilden till högre upplösning. (Källa)

DLSS 2.0
I DLSS 2.0 finns endast ett nätverk och det tas flera bilder istället för en. Stickproven är mer utspridda, vilket gör att det går åt mindre tid per bildruta. Om bilden inte har många föremål som rör på sig snabbt, så kommer resultaten att bli jättebra. Om det däremot sker ändringar i bilden så kan det uppstå artefakter såsom ghosting (samma föremål vissas lite suddigt i tidigare tillstånd).

Av denna anledning så finns det oftast funktioner som finns till för att validera att man inte tar stickprov som bidrar till ghosting och så. Men då man vill att det ska gå så snabbt som möjligt använder man ofta en heuristik (en mängd enkla regler som kan exekveras snabbt och ge ett hyfsat resultat) för att hitta och rätta till felen. Dessa heuristiker har ofta egna problem för vissa saker, och det DLSS 2.0 gör är att istället för att använda en heuristik så används deep learning. (De nämner inte i presentationen, men DLSS 1.9 i Control använder förmodligen en heuristik istället för deep learning. Faktum är att Control inte finns alls i presentationen). En annan sak som inte talas om i presentationen är hur motion vectors används, men av att döma så är det en input till det neurala nätverket som sedan använder det för att välja stickprov. Själva uppskalningen är inte maskininlärd, utan görs förmodligen på ett annat sätt med de (maskininlärt utvalda) stickproven. Då valet av stickprov inte hör till spelen så kan det generaliseras.

DLSS


Prestanda:

Prestanda

Kritik:
Min kritik hör inte till DLSS 2.0 i sig. Från det som jag har sett så verkar det vara en mycket bra metod, och då bör man presentera det som det utan överdrifter. Om det är bra som det är, så behöver man inte undvika att tala om felen, för ingen bryr sig om resultaten är bra. Man ska speciellt inte undvika att tala om felen om man nämnt att felen är viktiga tidigare. Kritiken handlar snarare om hur NVIDIA kommunicerat.

Då flera bildrutor används så kan saker i rörelse orsaka artefakter (i synnerhet små föremål), även om DLSS 1.9 i Control har värre problem. Alla de problemen som påvisades där är ändå inte helt borta.

Här skulle det vara bra om de påpekade att det fanns problem, men t.ex. nämnde att de var försumbara, påverkade bara lite, kan möjligtvis tränas bort i framtiden osv. Att ha en plan för hur man ska angripa ett problem är viktigt. Istället så totalignoreras det, Controls implementation nämns aldrig, även om det är den som är mest lik den nuvarande DLSS 2.0. De nämner inte vad de använde för heuristik till den, eller hur den jämförs med DLSS 2.0 i antal frames, samples och så.

När de släppte bloggen om hur de skulle gå vidare med DLSS efter Control , så sa de att ett av de stora problemen var att deras approximationsalgoritm tog bort små detaljer som rörde sig snabbt genom att sudda ut dem, medan deras AI-modell bibehöll alla detaljer.

Så nu kommer frågan: De visade upp ett stort problem med approximationsalgoritmen, nu borde DLSS 2.0 ha tagit bort detta, väl? Nej, det har det inte… (och här är ett annat exempel från mech warrior 2)

Det känns ju bra att göra ett benchmark för att visa ett problem, för att sedan inte visa samma benchmark med den nya algoritmen för att visa att problemet är löst. ¯\_(ツ)_/¯

I presentationen nämns inga nackdelar med DLSS 2.0 , ändå så är de fullt medvetna om att det har nackdelar. Den beskrivs som… perfekt. Under en del så nämner han att det finns andra heuristiker, men man får inte ens jämföra med dem för att de inte är “perfekta”. Ingenting med grafik är perfekt idag! Inte ens DLSS 2.0 är bevisligen perfekt, så varför kan dessa saker inte jämföras? Vem säger att det inte går att skapa en heuristik som levererar likartade resultat som den maskininlärda delen?
“There are many other heuristics that people have invented over the years that I haven’t really talked about, like for example motion adaptive temporal integration, aluma(?) adaptive temporal integration,and so on. But none of those heuristics are really perfect.
With DLSS 2.0 we train a neural network offline on super computers on tens of thousands of really high quality images to just learn the optimal strategy to combine samples collected over multiple frames. So instead of using handcrafted heuristics, we’re completely using a data driven approach.”

Översättning: “Vi har lagt ner mycket pengar och tid på det här så vi ser helst inte något annat komma fram som ger likartade resultat, ok?”. Det är löjligt. Det är inte förtroendeingivande att inte vilja jämföras med andra för de inte är ”perfekta” när din metod inte heller är ”perfekt”. Hade varit bättre om de konstaterat att resultaten var sämre, eller visat att de var sämre. Man kunde uttrycka sig på ett annat sätt här. (Och nej, NVIDIA är inte ensamma om att göra det här heller. Det har funnits tillfällen då AMD och Intel inte nämnt vissa saker också).

Den andra delen har att göra med att de inte har samma strategi när det kommer till 1600-serien som de har för RT. För RT sa de ”Du kan testa att se hur det ser ut med RT, även om prestandan är kass. Den är ändå bättre för RTX serien”, vilket är en helt rimlig hållning. Men när det kommer till DLSS så är det tydligen omöjligt att visa upp detta på t.ex 1600-serien, trots att det inte hade varit någon som helst skillnad mellan den och RTX korten i DLSS 1.9, förmodligen hade det även hjälpt med DLSS 2.0 om RT var aktiverat. Men då hade det ju existerat incitament för att köpa de billigare GTX korten, vilket hade varit hemskt… alltså inte för dig och mig, utan för NVIDIA. Även om det är just deras image som hade lyfts till skyarna. I DirectML hade de fått en implementation som fungerat bra på båda (även AMD och Intel) , men de hade inte kunnat uppdatera modellen som används från drivrutinerna, vilket iofs inte hade varit ett superstort problem.

Tensorkärnor är självständiga till viss mån, men inte utan bekostnad på annat. Det är ingen slump att de beskrevs som att de körs separat när de först introducerades . Vilket inte är helt sant, alla FP16 kommandon går till tensorkärnorna. Om de utnyttjas fullt ut så kan inte INT32 och FP32 användas fullt ut vad jag kan se. Om det bara är 2x FP16 så kan det köras helt parallellt. Av denna anledning har 1600-serien en dedikerad FP16 pipeline.

Varför är detta viktigt? Det är inte enbart tensorkärnorna som är involverade i uppskalningen, och av denna anledning så används inte all kapacitet hela tiden. Vissa delar skulle köra lika snabbt med tensorkärnor som utan tensorkärnor, medan andra skulle köras många gånger långsammare.

Här är en bild på användningen av olika enheter i Control med DLSS 1.9.
Gå ner till SM FP16+ tensor pipe throughput. Det är dessa siffror som är relevanta. I DLSS 1.9 har NVIDIA redan klarlagt att tensokärnorna inte används, och vi har en 7,9% användning på FP16 pipe. Här finns en bild med DLSS 2.0. Som går att se, så finns delar från 1.9 i 2.0 , men olika mycket (tråkigt nog hade den som tog bilden en dialogruta över vissa delar, så svårt att avgöra exakt hur mycket som de används). I synnerhet den första delen är likadan, resten skiljer sig från DLSS 1.9.

Här är de bredvid varandra och satt till samma tidsskala. Som går att se så används visserligen tensor cores upp till 75,9% ibland under väldigt korta stunder, andra gånger till ~50% under korta stunder, andra delar skulle de klarat sig lika bra utan tensor cores. Det kommer att gå mycket långsammare utan dem, ja , men inte så mycket så att det skulle vara helt värdelöst på 1600-serien. Kom ihåg att DLSS har som störst vinst när kostnaden per pixel är så hög som möjligt. Vill ni veta ett tillfälle när kostnaden per pixel är så hög som möjligt? T.ex när ray tracing körs utan RT cores.

Kritik

Kommentarer om videon:
Sharpening var ingenting som nämndes i presentationen, men å ena sidan så nämnde de inte heller några artefakter från DLSS (även om de har artefakter). Det finns tydligen sharpness settings i DLSS 2.0, men osäkert om de syftar på sharpening eller något annat.

De sa att DLSS 2.0 behöver fortfarande slutupplösningens texturer används för att ett bra resultat ska tillhandahållas. Allting är inte bara black magic. Så om du uppskalar från 1080p till 4k, så används 4k texturer.

På konsol ligger det någonstans mellan ”förmodligen inte” och ”kanske”. Jag hade en lista med kanske 5 punkter varför det vore en bra idé att ha det, men när de publicerade TOPS får det en att undra. De motsäger dock inte helt varför det inte skulle kunna användas. Även det att de har en annan metod för att uppskala gamla spel är lite förundrande, men funkar helt utan att någon extra programmering behöver göras.

Kommentarer om videon

DLSS och liknande metoder kommer att vara en viktig del i framtidens spel. Det hade inte förvånat mig om det kommit "tensorkärnor" som är helt dedikerade för bildbehandling (som kan användas för annat också).