Nvidias nedskalningsteknik DLDSR testas

Permalänk
Melding Plague

Nvidias nedskalningsteknik DLDSR testas

Digital Foundry sätter tänderna i det senaste verktyget från Nvidia, som på papper förbättrar bildkvaliteten utan att tumma allt för mycket på bildfrekvensen.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

"Brukar du använda några filter eller andra verktyg för att förändra prestanda eller bildkvalitet när du spelar? Berätta i kommentarstråden!"

Japp. Magpie. Ett utmärkt program för att få bättre bildkvalitet. Sätt det på FSR.
Programmet är på engelska med, det framgår inte så tydligt på Github.

Har provat NIS med och det är helt okey.

Samt FSR i spel som stödjer det såklart.

Bästa är Magpie faktiskt. Om vi enbart ser till grafikkvalitet. För det funkar i alla spel oavsett vilka inställningar jag har i det.
Tex i ett spel som jag maxar alla inställningar i blir snyggare med Magpie.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av SCORPIUS:

"Brukar du använda några filter eller andra verktyg för att förändra prestanda eller bildkvalitet när du spelar? Berätta i kommentarstråden!"

Japp. Magpie. Ett utmärkt program för att få bättre bildkvalitet. Sätt det på FSR.
Programmet är på engelska med, det framgår inte så tydligt på Github.

Har provat NIS med och det är helt okey.

Samt FSR i spel som stödjer det såklart.

Bästa är Magpie faktiskt. Om vi enbart ser till grafikkvalitet. För det funkar i alla spel oavsett vilka inställningar jag har i det.
Tex i ett spel som jag maxar alla inställningar i blir snyggare med Magpie.

Det där får du gärna berätta mer om, min kinesiska är nämligen inte toppbra om man säger så.

Permalänk
Medlem
Skrivet av Gurrrra:

Det där får du gärna berätta mer om, min kinesiska är nämligen inte toppbra om man säger så.

Bara att kopiera all text här
https://translate.google.com/?hl=sv&tab=TT&sl=auto&tl=sv&op=t...

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Inaktiv
Skrivet av Gurrrra:

Det där får du gärna berätta mer om, min kinesiska är nämligen inte toppbra om man säger så.

I Chrome & Edge kan du högerklicka på sidan och översätta.

Permalänk
Medlem

Det finns alltså inget DLDSR 4X som överträffar vanlig DSR i nedskalning? Har precis köpt ett RTX 3070 som kommer få driva min "nya" begagnade 240Hz 1080p-skärm. Det här kan bli relevant i slöspelstitlar. Har kört VSR på mitt gamla R9 290 och 290X och jag älskart. Resident Evil 2 Remake körde jag med min 1080p-projektor och duk på 100". Minns inte om jag körde 1440p eller 1800p men lyckades låsa 60fps med TAA+FXAA och nästan allt annat på högsta vad vramen tillät. Såg snuskigt bra ut. Inte minst med tanke på hur gammalt R9 290 är.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Testpilot

DLDSR + DLSS verkar mer eller mindre vara som att köra DLAA. Förbättrad bildkvalité och grym AA, nästan utan någon kostnad på prestandan. Med andra ord kan man få DLAA i spel som annars bara har DLSS, vilket är bra för de som inte gillar hur bilden blir vid användning av just DLSS.

Ska testa lite mer personligen nu under helgen, men initiella intryck och det som DF visar upp tyder på en väldigt trevlig framtid!

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | VGN K75 Pro | Deathadder V2 Pro >

Permalänk
Hedersmedlem
Skrivet av SCORPIUS:

Tips för google translate.
Lägg inte in texten däri. Lägg istället in länken till hemsidan i google translate och klicka på länken i översättningafältet så får du hela hemsidan översatt.
Smidigt som attan 😁.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem

Så man har döpt om en ”urgammal” teknik vid namn FSAA, och accelererat den via tensorkärnorna.

Permalänk
Medlem
Skrivet av Gurrrra:

Det där får du gärna berätta mer om, min kinesiska är nämligen inte toppbra om man säger så.

Magpie är en screen capture video upscaller. Dvs den spelar in innehållet i fönstret du vill förstora och sedan spelar upp det i fullskärm genon att skala upp innehållet baserat på vilken teknik du vill använda dig av. Själv föredrar jag ACNet skalnings metod men det hela beror på vad du spelar.

Programmet är gjort för äldre spel samt spel som saknar bra stöd för högre upplösningar.

Samt själva programmet finns på engelska.

Visa signatur

Speldator: Ryzen 7800X3D, 64GB DDR5, RTX 3070
Server: i7-8700k, 32GB DDR4, RTX2080
Steam deck + de fiesta konsoller.

Permalänk
Medlem

Så... en teknik för folk som inte har 4k skärmar? För det måste väl ändå vara bättre att rendera i 4k och sen helt enkelt visa den bilden? Eller kör man 8k då o skalar ner till 4?

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av talonmas:

Så... en teknik för folk som inte har 4k skärmar? För det måste väl ändå vara bättre att rendera i 4k och sen helt enkelt visa den bilden? Eller kör man 8k då o skalar ner till 4?

Det är ju det denna gör. Skalar ner från 4k till den upplösning du har på din skärm men med maskininlärning ska den ta bort det som man ”tappar”.

Visa signatur

Dell S2721DGFA ■ 5800X3D (Noctua NH-U12P) ■ RTX 3070 AORUS Master ■ 16x2 3200 CL16 ■ MSI B450M Mortar Max ■ Samsung EVO 970 1 TB ■ Fractal Design North + Switch OLED

Old: Pentium 4 -> Core 2 Duo E6750 -> i7 2600k -> R7 3700X

Permalänk
Skrivet av talonmas:

Så... en teknik för folk som inte har 4k skärmar? För det måste väl ändå vara bättre att rendera i 4k och sen helt enkelt visa den bilden? Eller kör man 8k då o skalar ner till 4?

Skrivet av KorvMos:

Det är ju det denna gör. Skalar ner från 4k till den upplösning du har på din skärm men med maskininlärning ska den ta bort det som man ”tappar”.

Så som jag uppfattat det så är inte gränsen 4k, utan 4x upplösningen din skärm sitter på.

Permalänk
Hedersmedlem
Skrivet av SuperNova:

Så man har döpt om en ”urgammal” teknik vid namn FSAA, och accelererat den via tensorkärnorna.

Ungefär som DSR gjort i typ 8 år fast snabbare och tydligen ibland bättre bildkvalitet, jo. Ser inget problem med detta lls dock.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk

DLDSR og Horizon Zero Dawn

Jeg har kjørt spillet med DLDSR(2,25xDL=3840x2160)min kjerm er på 2560x1440p og med DLSS,såå detalijert i dybden og ansiktet til Aloy ser ikke ut som "plastikk" hun har nesten helt naturlig hud med porer og føflekker+ fregner.Det var jo bra også uten DLDSR.I neste spill Horizon Forbidden West så får hun dunhår i ansiktet med det så må du ha en PS5 for å se det...hehe hun bruker ikke "foundation krem"Wow...Ja spillet har også HDR flott effekt det også.Horizon Zero Dawn har jammen blitt Remastered,det var ganske bra fra før.Bruker Asus rtx 3090 oc rog strix gaming og alt står på max i spillet og nvidia kontrollpanel tekstur på høy kvalitet.Mister ikke FPS faktisk på steder med mye aktion i bilde for det skjedde med det gamle DSR. Bruker jevnhet på 0% som starter på 33% i Nvidia kontrollpanel.

Permalänk
Medlem

Det tråkiga med DF är att de praktiskt taget är en marknadsföringskanal för nvidia i dagsläget. Det må låta som foliehatt och komplotteorier. Men det blir väldigt uppenbart ifall man kritiskt granskar deras PC videos. De väljer selektivt att enbart täcka nyheter om nvidia. Varav både branding och deras tekniker tar stor del av DFs "screen time". De följer i stor mån de guidelines som nvidia skickat ut till avtalspartners.

- fokusera på framtid med RT
- fokusera på AI och smart uppskalning med hjälp av DLSS
- jämför ej DLSS mot "competing technologies"
etc.

De undviker att prata om FSR helt (även vid deras tekniska djupdykning av God of War omnämns enbart FSR med meningen att "det går att stängas av"). När de gick igenom Matrix-demot (som renderas på RDNA2 hårdvara) omnnämns inte AMD över huvudtaget, visst, de pratar positivt om framtiden med de nya konsolerna, trots detta omnämns enbart Nvidia och hur demot hade mått bra av DLSS. Det känns lite tråkigt när de har en så marknadsledande position för teknik. och att de inte har ett neutralt förhållningssätt till PC industrin.

AMD Super Resolution + FSR + Radeon Sharpening ger fantastiska resultat för nedskalning. (jag kör detta i hellblade, och bildkvalitén blir minst lika bra som vad nvidia erbjuder) däremot skulle DF skulle aldrig täcka en neutral bildskalningstekniker från både AMD och Nvidia, eller fler företag.

Och nej, jag är inte på något sätt en fanboi. Jag är för gammal för det, varit med i PC industrin sedan tidigt 90-tal och har ägt hårdvara från alla möjliga företag. Oftast köper jag vad som erbjuder mest värde för mig personligen. Vilket nu blev AMD, för 5år sedan var det Pascal, med nvidia.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem
Skrivet av _genki:

De undviker att prata om FSR helt (även vid deras tekniska djupdykning av God of War då det enda de säger är att FSR "går att stängas av"). När de gick igenom Matrix-demot (som renderas på RDNA2 hårdvara) omnnämns inte AMD över huvudtaget, visst, de pratar positivt om framtiden med konsolerna, trots detta omnämns enbart Nvidia och hur demot hade mått bra av DLSS. Det känns lite tråkigt när de har en så marknadsledande position för teknik. och att de inte har ett neutralt förhållningssätt till PC industrin.

DF har ju gjort videos om FSR och även jämfört bildkvalitén i spel med FSR, och t.o.m. gjort en intervju med AMD om FSR.

FSR är dock en rätt "tråkig" teknik i den meningen att den bara är en traditionell uppskalning, så har man sett FSR i ett spel så har man sett det i alla så att säga. DLSS är lite mer spelberoende, och DF tar ju t.ex. upp vilka grafiska artefakter de märkte av i God of War med DLSS.

Permalänk
Medlem
Skrivet av perost:

DF har ju gjort videos om FSR och även jämfört bildkvalitén i spel med FSR, och t.o.m. gjort en intervju med AMD om FSR.

FSR är dock en rätt "tråkig" teknik i den meningen att den bara är en traditionell uppskalning, så har man sett FSR i ett spel så har man sett det i alla så att säga. DLSS är lite mer spelberoende, och DF tar ju t.ex. upp vilka grafiska artefakter de märkte av i God of War med DLSS.

Det kvittar ifall man tycker att FSR är en "tråkig" uppskalningsteknik. Den har låg overhead, och kan skala från högre upplösningar än DLSS. I 4K så erbjuder Ultra Quality eller Quality jämförbar kvalité med DLSS Quality för ungefär samma eller bättre prestanda. Vad DF gjorde i sin FSR genomgång var att dra fram allt det "dåliga" med spacial upscaling snarare än FSR som helhetspaket. Stort focus låg på vad som gör tekniken sämre, medan nvidia reportage oftast fokuserar på allt tekniken gör bra. Det är detta som är problemet, man kan välja att vinkla saker, och DF vinklar sitt innehåll till nvidias fördel snarare än att vara neutrala.

Efter detta har man officiellt gått ut med att man inte kommer att titta på FSR mer för att Alex personligen anser att det är (liksom du), tråkig teknik. Men det är skitsamma, FSR är i dagsläget ett bra alternativ för alla som inte lever i det mytomspunna RTX-landet där enbart nvidias proprietära teknik finns. Och det behöver inte vara lika bra som nvidias alternativ, det behöver enbart vara bra nog för att göra en liknande eller meningsfull uppgradering för slutanvändare.

Även om DF går igenom två artifakter med DLSS så väljer de att helt och hållet att bortse från FSRs existens. Ser du inte själv problemet med detta? Det blir ju att man som följare av DF tror att nvidia är det enda alternativet i dagsläget. och att allt annat är kasst. Jag äger själv ett 6600XT och spelar både Doom Eternal och Metro Exodus Enhanced Edition med ray-tracing, hög bilduppdatering, i 1440p. Bilden som DF levererar å andra sidan är RT utanför RTX-kort är helt värdelöst och onödigt, vilket inte heller är sant. AMD omnämns inte i RT sammanhang, och som tittare får man bilden av att RX6XXX-korten inte klarar det.

(I mina tester så visar det sig att RT-prestandan blir mer balanserad om man drar ner inställningarna i rasterisering, då de delar på samma kärnor, istället för att ha separata. Det gör att ultra-benchmarks ger en skev bild av Radeons RT prestanda)

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem

@_genki

Jag håller med dig i sak. De har blivit lite av Nvidias megafon. Speciellt Richards recension av 6800XT var en smärre katastrof och slutsatserna som drogs var rätt ensidiga. Men jag tror inte att det är helt medvetet, det är en framåtblickande kanal och det är trots allt så att Nvidia är drivande för utvecklingen på det flesta områden just nu. AMD visar med RDNA2 att de vill vara med och leka men är inte där än speciellt sett till avsaknaden av något som motsvarar Tensorkärnorna. De låter enormt taggade på Xe/Arc med tanke på XeSS så det är nog det det handlar om.

Sedan är jag inte helt övertygad av varken DLSS eller FSR, alldeles för ofta är det hopplöst överskärpt med mycket ringing. Och jag vet inte hur bra reklam för DLDSR det var att se Alex trixande med att dra på ett blurfilter för att kontra skärpan som introducerades. Såg inte bra ut och resultatet på texturerna även med smoothness på 33% var inte helt ok. Men han nämnde inget om det absurda i det, vilket är lite tråkigt.

Jag uppskattar dock DF mycket pga Alex och Johns enormt skarpa ögon. Bra och insiktsfulla analyser oftast. För hårdvarutester så håller jag mig till de som kan den biten bättre, SweC, Gamers Nexus och Hardware Unboxed främst.

Fel tråd. :)
Permalänk
Medlem

Jag kan också hålla med att det blir lite ensidigt, men å andra sidan så ÄR DLSS betydligt bättre än FSR, knappt ens jämförbart imo. Sen att dom fokuserar mycket på raytracing vilket RTX-korten är duktiga på har jag inga problem med då raytracing är framtiden. O som jag förstått det så är ju Nvidia ganska mycket snabbare på det än AMD.
Sen är jag såklart ändå lite partisk då jag Blendrar mycket o där är Nvidia långt överlägsna AMD i hur snabbt det renderas med RT-kärnorna.

Permalänk
Medlem
Skrivet av Gurrrra:

Jag kan också hålla med att det blir lite ensidigt, men å andra sidan så ÄR DLSS betydligt bättre än FSR, knappt ens jämförbart imo. Sen att dom fokuserar mycket på raytracing vilket RTX-korten är duktiga på har jag inga problem med då raytracing är framtiden. O som jag förstått det så är ju Nvidia ganska mycket snabbare på det än AMD.
Sen är jag såklart ändå lite partisk då jag Blendrar mycket o där är Nvidia långt överlägsna AMD i hur snabbt det renderas med RT-kärnorna.

Angående Blender så är HIP-stödet i 3.0 förvånansvärt bra på RDNA. Inte i nivå med Nvidia men bra och väldigt användbart.

Permalänk
Medlem
Skrivet av _genki:

Det tråkiga med DF är att de praktiskt taget är en marknadsföringskanal för nvidia i dagsläget. Det må låta som foliehatt och komplotteorier. Men det blir väldigt uppenbart ifall man kritiskt granskar deras PC videos. De väljer selektivt att enbart täcka nyheter om nvidia. Varav både branding och deras tekniker tar stor del av DFs "screen time". De följer i stor mån de guidelines som nvidia skickat ut till avtalspartners.

- fokusera på framtid med RT
- fokusera på AI och smart uppskalning med hjälp av DLSS
- jämför ej DLSS mot "competing technologies"
etc.

De undviker att prata om FSR helt (även vid deras tekniska djupdykning av God of War omnämns enbart FSR med meningen att "det går att stängas av"). När de gick igenom Matrix-demot (som renderas på RDNA2 hårdvara) omnnämns inte AMD över huvudtaget, visst, de pratar positivt om framtiden med de nya konsolerna, trots detta omnämns enbart Nvidia och hur demot hade mått bra av DLSS. Det känns lite tråkigt när de har en så marknadsledande position för teknik. och att de inte har ett neutralt förhållningssätt till PC industrin.

AMD Super Resolution + FSR + Radeon Sharpening ger fantastiska resultat för nedskalning. (jag kör detta i hellblade, och bildkvalitén blir minst lika bra som vad nvidia erbjuder) däremot skulle DF skulle aldrig täcka en neutral bildskalningstekniker från både AMD och Nvidia, eller fler företag.

Och nej, jag är inte på något sätt en fanboi. Jag är för gammal för det, varit med i PC industrin sedan tidigt 90-tal och har ägt hårdvara från alla möjliga företag. Oftast köper jag vad som erbjuder mest värde för mig personligen. Vilket nu blev AMD, för 5år sedan var det Pascal, med nvidia.

Jag tycker dom har skurit ner på mycket PC videos på senare tid, vad hände med Intel 1200 ingen video gjordes utan bara på skrift inne i Eurogamer.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av Vangen:

Jag tycker dom har skurit ner på mycket PC videos på senare tid, vad hände med Intel 1200 ingen video gjordes utan bara på skrift inne i Eurogamer.

Verkligen. När det väl är PC så är det nvidias nya lanseringar som gäller. Jag gillade tiden när Rich hade sin 4K on a budget, och när han optimerade spel för AM1 plattformen som någon slags jämförelse mot dåvarande konsoler, det kändes lite mer djupdykande, lite påhittigt och att YT-kanalen drevs av ett intresse snarare än som ett business venture.

Det är väl egentligen detta som är problemet. Hur mycket screen time nvidia får i deras PC-coverage jämför mot andra aktörer, då utrycker jag inte enbart oro för grafikkortssidan, utan även CPUer, AMD, Intel, ARM. Resizeable Bar/Smart Memory Access, Steam deck, Linux/Proton, det finns så otroligt mycket intressant att täcka. Men i dagsläget är det enda jag hör från kanalen är RT, DLSS, Nvidia, RTX.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem
Skrivet av Novdid:

Speciellt Richards recension av 6800XT var en smärre katastrof och slutsatserna som drogs var rätt ensidiga. Men jag tror inte att det är helt medvetet, det är en framåtblickande kanal och det är trots allt så att Nvidia är drivande för utvecklingen på det flesta områden just nu. AMD visar med RDNA2 att de vill vara med och leka men är inte där än speciellt sett till avsaknaden av något som motsvarar Tensorkärnorna. De låter enormt taggade på Xe/Arc med tanke på XeSS så det är nog det det handlar om

Ja, överlag så var recensionen nästan skrattretande. Till och med hur Richard tonsätter sin röst, mycket skepsis och missnöje. Han spelar ner vikten av mängden VRAM i 6800 med hjälp av Doom Eternal (ett förra generationsspel, då utan RT). Samtidigt som 12GB mirakulöst välkommnas positivt senare i hans 3060 recension. Jag är helt övertygad om att det finns mer än en tillfällighet. Flera gånger i deras DF Directs trycker de in ord som "power of AI" utan att ens ha något vettigt att säga om det. Alla deras insändarfrågor handlar om nvidia, såvida det inte sätter AMD i negativt lag.

Jag skulle säga att det är någon form of mastery of cherry picking. Nog för att nvidias kort är i dagsläget tekniskt sett oftast bättre. Marknaden visar dock en helt annan verklighet. Där AMDs produkter har generellt varit mer prisvärda, speciellt ur ett globalt perspektiv. Man kan tråkigt nog inte undvika DF är en nvidia megafon, vars framtidssyn är exakt samma som DF. Med andra ord de blir en kanal som helt okritiskt spelar täcker allt som handlar om nvidia.

Jag kan känna att AMD egentligen är bättre ute denna generation, att ha kombinerad RT och rasteriseringsprestanda "makes sense" i en övergångsperiod när rasterisering fortfarande är dominerande. Även ifall MSRP inte har spelat någon roll denna generation så skulle AMD prissatt sig under nvidia. På så sätt hade det varit en mer jämn match. Med detta sagt så litar jag varken på Nvidia eller AMD. De befinner sig i en duopolistisk situation, och jag tror i ärlighetens namn att det inte finns någon direkt konkurens mellan dem. De prissätter sig för nära varandra, inger underminerar den andra. De har båda inget att tjäna på att konkurera eller pressa priser. Det påminner lite om Phoebus kartellen. Finns det för få aktörer på marknaden så är det bättre att gå ihop med gemensamma mål snarare än att konkurera.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem
Skrivet av Gurrrra:

Jag kan också hålla med att det blir lite ensidigt, men å andra sidan så ÄR DLSS betydligt bättre än FSR, knappt ens jämförbart imo.

I lägre upplösningar har DLSS en klar fördel. Som du säger de "går knappt att jämföra". Men det är ju inte i lägre upplösningar som uppskalning spelar roll. Utan snarare i det högre spannet. 1440p, men främst 4K. Där ser både 1440p FSR Ultra Quality eller 4K Ultra Quality/Quality riktigt bra ut. DLSS är bra på stillbilder, framförallt sub-pixel detaljer då den temporala komponenten kan bygga upp sin upplösning över tid och, däremot lämnar DLSS ghosting and motion artefakter i rörelse. FSR å andra sidan är sämre på sub-pixeldetaljer då den inte kan bygga upp information över tid men kompenserar detta med högre basupplösning, viss implementation som med Unreal Engine fungerar detta fortfarande bra då en TAAU lösning körs innan FSR. Skillnaden är att FSR ser skarpare ut i rörelse. Spel som F1 2021 ser FSR betydligt bättre, även i 1080p och är betydligt stabilare än DLSS (även ifall man injecerar den sista iteration). Det handlar om att de är bra på olika saker. De kommer alltid ha subjektiva skillnader. Hade jag haft tillgång till båda hade jag valt DLSS i 75% av fallen. men ifall alla DLSS-titlar hade haft FSR stöd så hade jag personligen inte känt någon större sorg med tanke på hur jag hade användt teknikerna.

DLSS behandlas som svart magi i dagsläget. Men det är ganska tydligt inte magi utan en väloptimerad TAAU lösning. Likt vad som finns i Metro Exodus "shading rate" eller Unreal's TAAU. jag skulle inte ens kalla det för AI-uppskalning då AI med stor sannolikhet enbart använts för att effektivisera en "primitiv" per-pixel algoritm. DLSS's algoritmen är på tok för snabb för att kunna känna av och behandla scenen som helhet. Utan det är en uppskalningsteknik som använder temporal information samt rörelsevektorer. Likt hur codecs fungerar. Bara att rörelsevektorerna skickas i realtid av spelmotorn snarare än att vara är inbakade i videoformatet.

Fokuset på AI för nvidia är 99% marknadsföring. Matrisuträkningar har varit accelererade på CPUn sedan MMX-tiden, men nvidia inser att utvecklingen hos GPUer blir allt mindre viktig över tid och de försöker bredda sig till bilar, infrastruktur och AI istället. (speciellt med nanite, som praktiskt taget erbjuder "infinite detail" för en fast kostnad). Att porträttera sig själva som "mästare på AI" får investerare och nya kunder att titta åt deras håll så detta DLSS och deras marknadsföringsteknik är definitivt ett sätt att segmentera synen på företaget.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Datavetare
Skrivet av Novdid:

Angående Blender så är HIP-stödet i 3.0 förvånansvärt bra på RDNA. Inte i nivå med Nvidia men bra och väldigt användbart.

Det är "bra" i bemärkelsen: det gör rätt sak och verkar vara stabilare än OpenCL någonsin var i Blender.

Problemet är hur långt efter man är i prestanda. Radeon 6900XT drar hyfsat jämnt med RTX 3070, förutsatt att den senare "bara" kör med CUDA. Grejen är att Blender också stödjer Nvidia Optix, med det aktiverat är nästan alltid RTX 3060 snabbare än 6900XT...

Så skulle kalla AMD stödet mer "en nödlösning". Om man faktiskt bryr sig det minsta om GPGPU är Nvidia tyvärr enda realistiska alternativet

Skrivet av _genki:

I lägre upplösningar har DLSS en klar fördel. Som du säger de "går knappt att jämföra". Men det är ju inte i lägre upplösningar som uppskalning spelar roll. Utan snarare i det högre spannet. 1440p, men främst 4K. Där ser både 1440p FSR Ultra Quality eller 4K Ultra Quality/Quality riktigt bra ut. DLSS är bra på stillbilder, framförallt sub-pixel detaljer då den temporala komponenten kan bygga upp sin upplösning över tid och, däremot lämnar DLSS ghosting and motion artefakter i rörelse. FSR å andra sidan är sämre på sub-pixeldetaljer då den inte kan bygga upp information över tid men kompenserar detta med högre basupplösning, viss implementation som med Unreal Engine fungerar detta fortfarande bra då en TAAU lösning körs innan FSR. Skillnaden är att FSR ser skarpare ut i rörelse. Spel som F1 2021 ser FSR betydligt bättre, även i 1080p och är betydligt stabilare än DLSS (även ifall man injecerar den sista iteration). Det handlar om att de är bra på olika saker. De kommer alltid ha subjektiva skillnader. Hade jag haft tillgång till båda hade jag valt DLSS i 75% av fallen. men ifall alla DLSS-titlar hade haft FSR stöd så hade jag personligen inte känt någon större sorg med tanke på hur jag hade användt teknikerna.

DLSS behandlas som svart magi i dagsläget. Men det är ganska tydligt inte magi utan en väloptimerad TAAU lösning. Likt vad som finns i Metro Exodus "shading rate" eller Unreal's TAAU. jag skulle inte ens kalla det för AI-uppskalning då AI med stor sannolikhet enbart använts för att effektivisera en "primitiv" per-pixel algoritm. DLSS's algoritmen är på tok för snabb för att kunna känna av och behandla scenen som helhet. Utan det är en uppskalningsteknik som använder temporal information samt rörelsevektorer. Likt hur codecs fungerar. Bara att rörelsevektorerna skickas i realtid av spelmotorn snarare än att vara är inbakade i videoformatet.

Fokuset på AI för nvidia är 99% marknadsföring. Matrisuträkningar har varit accelererade på CPUn sedan MMX-tiden, men nvidia inser att utvecklingen hos GPUer blir allt mindre viktig över tid och de försöker bredda sig till bilar, infrastruktur och AI istället. (speciellt med nanite, som praktiskt taget erbjuder "infinite detail" för en fast kostnad). Att porträttera sig själva som "mästare på AI" får investerare och nya kunder att titta åt deras håll så detta DLSS och deras marknadsföringsteknik är definitivt ett sätt att segmentera synen på företaget.

Tycker videon i artiklen vi kommenterar rätt visar att ML-baserade skalningstekniker är längt mer än PR.

Beror säkert på personligen preferenser, själv tycker jag krypningar/flicker är en av de mest irriterande artefakterna som finns och detta är något som "vanliga" tekniker inte verkar kunna komma till rätta med med mindre än att lägga ett blur-filter över hela bilden. Har tagit ett par iterationer för Nvidia, men just den artefakten är något man blir allt bättre på att hantera med ML-lösningarna!

CPUer har blivit rätt mycket bättre på matrisberäkningar sedan MMX-tiden (där hanterades ju bara heltal). Men grejen är att GPUer är redan utan "Tensor-kärnor" långt snabbare på detta jämfört med CPUer. "Tensor-kärnorna" (samt Intel Alchemist XMX) ökar specifika operationer (som bl.a. används i många ML-lösningar) med nästan en tiopotens till!!! AI/ML är egentligen inte supernytt, men är först nu vi fått tillräckligt med beräkningskraft i "normala PC" för att kunna utnyttja tekniken i t.ex. spel.

DF verkar fokusera på "framtida teknik", i det läget blir ju resultatet på GPU-sidan rätt mycket enbart Nvidia då Nvidia tyvärr är totalt dominerande. Man tittar väldigt lite på FSR, har man överhuvudtaget tittat på Nvidia Image Scaling (NIS)? NIS är väldigt snarlik FSR.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer