Nvidias uppskalningsteknik DLSS blir gratis plugin för Unreal Engine 4

Permalänk
Avstängd
Skrivet av Thomas:

Det är ju ändå ganska lätt: det är en proprietär teknik. Varken AMD eller Intel kommer kunna använda den.

Det är rejält inzoomat.
Originalbilderna:
1080p
4K native
8K DLSS

Skrivet av ibland:

det är ju så det ser ut längst in i bilden på en idag upplösning om 1080p 4k 8k. Det är detaljrikedomen i kulisserna som är intressanta, längst fram i bild ser ju 1080p ändå OK ut men i fjärren inte så bra. Så de är väl inte så konstigt?

Orginalbilderna är ju mycket bättre, men ändå grovt överdrivna och väldigt hög jpeg komprimering på 1080p bilden, även ganska kraftig på 4k bilden.

Tittade på bilderna i fullskärm på jobbdatorn med 1080P skärm, och kan alltså inte se upplösning högre än 1920x1080p, ändå är det enorm skillnad mellan bilderna, trots att alla av dem är 1080p.... på denna datorn... så spelet på högsta inställningar i 1080p skulle nog vara närmast hur 8k bilden ser ut på en 1080p skärm i verkligheten.

Ungefär som när de skulle få alla att skaffa digitalTV, och sände massa TV-reklam på analoga TV-nätet där de visade analog TV till vänster i bild (som då såg ut som skit) och hur bra det skulle sett ut med digitalTV till höger i bild.....

Permalänk
Hedersmedlem
Skrivet av Klubba:

Orginalbilderna är ju mycket bättre, men ändå grovt överdrivna och väldigt hög jpeg komprimering på 1080p bilden, även ganska kraftig på 4k bilden.

Jo, absolut.

Skrivet av Klubba:

Tittade på bilderna i fullskärm på jobbdatorn med 1080P skärm, och kan alltså inte se upplösning högre än 1920x1080p, ändå är det enorm skillnad mellan bilderna, trots att alla av dem är 1080p.... på denna datorn...

Jo, fast tänk på att du i princip får SSAA när du skalar ner en 8K-bild till 1080p. Det bör se bättre ut även om alla är okomprimerade.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av SockerfriKetchup:

Jag har en 1440P 10bit skärm, draken på ''8K'' ser med suddig ut än den i äkta 4k...ej utzoomat läge.

Men det kan ju vara att det inte är exakt samma bild också.

Tycker då att draken ser suddigare ut i 4K native faktiskt. Satte dem jämsides med 200% inzoomat på 4K och 100% på 8K (samma storlek). Kolla även tegelväggen bakom draken och de andra tegelväggarna. De syns knappt på 4K medan i 8K är de mycket tydligare.

Permalänk
Medlem
Skrivet av xc:

Amd sitter i både Xbox(one,x,s series x,s) och Ps5(Ps4) så jag skulle kunna tänka mig att speltillverkarna kommer satsa rätt så mycket på att optimera för Amd:s tekniker med.

Tyvärr verkar det inte göra något när det gäller pc plattformen. Som vi vet har ju både Sony och MS, kört AMD läänge nu - utan tydligen någon påverkan!

Ofta när det gäller nya tekniker kör ju MS dessa ilag med just nVidia. Lite ironiskt med tanke på vad som sitter under huven!

Permalänk
Medlem
Skrivet av Ceogar:

Tycker alla verkligen såhär?

Jag har bara använt DLSS en gång och det var i cyberpunk. Stängde av det ganska snabbt för det förstörde verkligen grafik-kvalitén. Var så uppenbart där DLSS var aktivt och textuerna såg ut som "very low"

Kan detta ha med att man spelar i mega-ultrawide och det inte är lika optimerat?

Har inte använt dlss sen dess för det såg helt enkelt ut som skit.

DLSS Quality ser ut som DLSS av i Cyberpunk. Tycker du överdriver lite. Även i Death Stranding och i Control är det uppenbarliga fördelar med DLSS på.

Permalänk
Medlem
Skrivet av Alexraptor:

Riktigt dåligt. bättre om alla aktörer använde sig av teknikneutrala metoder för att ge kunden valfrihet och inte låsa in dem i specifika ekosystem. Alla gamers blir lidande av sådant här.

Äsch, DLSS funkar ju utmärkt på alla AMD/Intel grafikkort med Tensor-kärnor.

Oh wait...

Permalänk
Hjälpsam

Förstår glädjen för de som har ett RTX2000 eller RTX3000.

Förstår dock inte skadeglädjen gentemot AMD, vad tror ni händer med pris och utveckling, om AMD kastar in handduken?
Jävla nötter!

Vi har redan sett tendenser till detta, RX5700 var ett mellanklasskort, AMD brydde sig inte om att utveckla ett RX5800 eller ett RX5900, Nvidia fick fritt spelrum för prissättning av sina dyrare kort och dyra blev de.

AMD har "släppt" Rx6900 och Rx6800, nu i efterhand kanske ett felaktigt beslut, hade det nog varit bättre att använda kislet i TMC till deras CPUr, bättre vinst på dessa.
Kan bara gissa vad RTX3000 serien kostat om AMD låtit bli.

Edit
Kretsytan för en Rx6900 eller Rx6800 är 519 mm2.
Kretsytan för en Ryzen 5 CCD är 84 mm2, två krävs för en 5900x eller 5950x.
För ett grafikkort, tillkommer minne, kylning och strömförsörjning, ett grafikkort är en liten dator i sig.
Mer vinst på CPU-sidan, hade varit smartare att skippa 6800 och 6900, nöja sig med max 6700.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |