Nvidia smyger ut DLSS 2.2 i uppdatering till Rainbow Six Siege

Permalänk
Melding Plague

Nvidia smyger ut DLSS 2.2 i uppdatering till Rainbow Six Siege

Användare har lyckats applicera uppdateringen på andra spel genom att kopiera en .dll-fil, men utan nämnvärd prestandaökning.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Har inte så mycket mer att säga om detta än att det är fint att dom jobbar vidare på DLSS.

Just DLSS och Fidelity FX Super Resolution var inte så intressant för mig, innan...
Nu är det.
För om priserna kommer hålla i sig på grafikkort kommer jag behöva använda grafikkort mycket längre än jag har tänkt framöver.
Då är alla tekniker för att hålla det i liv genast mer intressant än bildförbättringstekniker.

Så nu återstår det bara att lyckas få tag i ett grafikkort som stödjer det haha
Mitt 1070 tuffar på och gör så gott det kan. Som en lite trött gubbe.

Autocorrect tyckte grafikkort borde heta grafikkork. Det gör inte jag.
Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Trevlig utveckling, speciellt med FSR som borde bli klart enklare att implementera för utvecklare, och som inte är hårdvarubundet. Kanske 1440p 144hz äntligen blir mainstream!

Visa signatur

Instead, why don't you go get me a big cup of coffee with so much fake sugar that the coffee itself gets cancer?

Louqe Ghost S1 MkII Limestone | Intel Core i5 11400F | Noctua NH-L12 Ghost S1 | Asrock B560M-ITX/AC | Crucial Ballistix 16gb 3466Mhz Cl16 | HP 3060 Ti Arctic Mod | WD Blue Nvme 1Tb | Corsair SF600 Platinum

Permalänk
Medlem
Skrivet av Sando:

Trevlig utveckling, speciellt med FSR som borde bli klart enklare att implementera för utvecklare, och som inte är hårdvarubundet. Kanske 1440p 144hz äntligen blir mainstream!

Använder utvecklare unreal engine, så har jag förstått det som att DLSS 2.0 är enkelt att implementera.

DLSS 1.0 däremot krävde ju inlärning för varje spel, vilket 2.0 inte kräver.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av SCORPIUS:

Har inte så mycket mer att säga om detta än att det är fint att dom jobbar vidare på DLSS.

Just DLSS och Fidelity FX Super Resolution var inte så intressant för mig, innan...
Nu är det.
För om priserna kommer hålla i sig på grafikkort kommer jag behöva använda grafikkort mycket längre än jag har tänkt framöver.
Då är alla tekniker för att hålla det i liv genast mer intressant än bildförbättringstekniker.

Så nu återstår det bara att lyckas få tag i ett grafikkork som stödjer det haha
Mitt 1070 tuffar på och gör så gott det kan. Som en lite trött gubbe.

Ja jag håller med dig en del, men det känns så konstigt. Varför vill tillverkarna att vi ska vara nöjda med våra sämre kort längre? Då kommer vi ju inte uppdatera. Så länge båda har alternativ på marknaden som användaren kan välja kvalitet mot bildfrekvens så är det ju fair game. Men DLSS ska inte jämföras mot konkurrerande kort i native upplösning...

Jag ser DLSS och liknande som ett enkelt sätt att ändra spelet från ’high’ till ’medium’, utan att behöva pilla så mycket. Vissa saker ser lite sämre ut, vissa ser knappt någon skillnad, men bildfrekvensen ökas.

Problemet är ju att testa dessa tekniker mot varandra eftersom inget mått av absolut bildkvalitet existerar, så prestanda vid given bildkvalitet är ju nästan omöjligt utan att göra blindtest på tusentals personer.

Ärligt talat @JonasT: kanske kan vara en grej. Gör några videos med olika inställningar (low/mid/high/1080p/1440p/4K/DLSS-P/DLSS-Q) sen skriv en artikel och be oss användare betygsätta dessa, utan att vi vet vilken som är vilken. Kanske bädda in två slumpmässiga och vi får välja vilken som är bäst eller något? Typ som en quiz. Helst skulle man ju vilja slippa youtubes komprimering och ha mer spel än ett, men man kan nog starta ganska lätt. Skulle vara kul att få någon crowdsourced känsla för vilken kvalitet som faktiskt erbjuds

Permalänk
Medlem

Tester på DLSS och FSR där enbart filmer som ej är komprimerade visas vore intressant.

Det vore fint om några st aktörer gick samman och gjorde gemensam sak med detta.
Likadan hårdvara, inställningar, drivrutiner osv.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av CubaCola:

Använder utvecklare unreal engine, så har jag förstått det som att DLSS 2.0 är enkelt att implementera.

DLSS 1.0 däremot krävde ju inlärning för varje spel, vilket 2.0 inte kräver.

Exakt, för UE4 är det ett plug-in som beskrivits som en halvdagsjobb för att få gratis prestanda enligt utvecklare, detta utan någon hjälp ifrån Nvidia. UE5 och Unity ska även få DLSS i kommande släpp under 2021.

Det har tagit ett tag, men vi står snart där detta är snabbt och smidigt för majoriteten av spel "att bara aktivera". Får hoppas utvecklare tar sig en liten titt på gamla spel och implementerar det om det behövs.

Har själv väldigt positiva intryck av DLSS (Quality), i Control kunde jag märka lite artifakter ibland när det var rutnät på långt avstånd, osäker om det var DLSS eller generell grafikbugg. I Death Stranding har jag inte märkt något jag kan komma på. Så fixar 2.2 flera artifakter är det ju supertrevligt.

Permalänk
Hedersmedlem
Skrivet av SCORPIUS:

Tester på DLSS och FSR där enbart filmer som ej är komprimerade visas vore intressant.

DLSS/FSR är ju mest intressanta i 4K dock, och 4K30 tar upp 712 MiB/s okomprimerat. Dubbla för 60 fps förstås.
x264/x265 lossless verkar kunna få ner till typ 1/5 eller liknande i bra fall, men då snackar vi fortfarande över 1 GB för 5 sekunder video.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av Thomas:

DLSS/FSR är ju mest intressanta i 4K dock, och 4K30 tar upp 712 MiB/s okomprimerat. Dubbla för 60 fps förstås.
x264/x265 lossless verkar kunna få ner till typ 1/5 eller liknande i bra fall, men då snackar vi fortfarande över 1 GB för 5 sekunder video.

Du får såklart tycka det
För mig är det intressant i alla upplösningar och fps.
Jag förstår att den som har kort i absoluta toppklass och pris vill se tester i så hög upplösning som möjligt osv.

För mig är DLSS/FSR enbart för att få mer fps så jag slipper köpa nytt grafikkort så ofta.
Priserna nu är så höga att jag motvilligt går med på att offra bildkvalitet något om jag kan ha kortet längre.
Och jag spelar i 1080p.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk

Kör jag med DLSS så flaskhalsar min CPU 100% load så att GPU:n går ner på 50-60% load. Detta innebär att jag får väldigt mycket fps-drops. Får stabilare fps/prestanda utan DLSS. Därför är DLSS helt ointressant för mig i nuläget.
Ni som kör med nyare CPU:er, hur upplever ni belastningen på CPU:n och GPU:n när ni kör med DLSS? Eller stirrar ni er bara blinda på max fps:en?
Kör med 2560x1440 upplösning.

Visa signatur

Corsair Obsidian 750D | EVGA Z790 Classified | G.Skill Ripjaws S5 6000 MHz CL30 64GB DDR5 @6600 MHz CL30 | i9-13900KF @5.6 GHz | PNY GeForce RTX 3080Ti XLR8 Gaming Revel Epic-X RGB @2055 MHz, 19902 MHz | Cooler Master V1200 | CPU+GPU-kylning: EK Custom loop | BenQ XL2410T + LG UltraGear 34GP950G |

Permalänk
Medlem

Det som intresserar mig allra mest med DLSS är inte uppskalning utan kantutjämning.

Alla andra AA-tekniker verkar ju bara blurra bilden och försämra bildkvalitén.

Permalänk
Medlem

För mig har DLSS upplevts lite som 200% filmgrain och en negativ AA. Mer kantiget och lite ytterligare flimmer. Lätt värt för att få ur dessa sista 25 fps.

Visa signatur

Lenovo Legion 5 17,3", 5800H, 3070 140 W, 2 TB
Logitech G Pro Wireless & G613 keyboard
Hifiman Sundara, Sennheiser PXC-550 II / Hidisz S9 Pro, Schiit Magni 2

Singleplayertopplistan utan ranking: Duke Nukem' 3D, Doom: Eternal, Half-life I & II, Super Mario 64 & Galaxy I & II, Resident Evil II (PSX), Metal Gear Solid, Final Fantasy VII (PSX), The Last of Us I & II, Fallout 3, New Vegas & 4, Cyberpunk 2077

Permalänk
Hedersmedlem
Skrivet av SCORPIUS:

Du får såklart tycka det
[...]
Och jag spelar i 1080p.

Det tar ju plats där också dock
186 MiB/s i 30 fps.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av F.Fairlane:

Kör jag med DLSS så flaskhalsar min CPU 100% load så att GPU:n går ner på 50-60% load. Detta innebär att jag får väldigt mycket fps-drops. Får stabilare fps/prestanda utan DLSS. Därför är DLSS helt ointressant för mig i nuläget.
Ni som kör med nyare CPU:er, hur upplever ni belastningen på CPU:n och GPU:n när ni kör med DLSS? Eller stirrar ni er bara blinda på max fps:en?
Kör med 2560x1440 upplösning.

Vad har du för cpu och gpu kan ju vara intressant? Har en 10850K och har inte kollat något speciellt på FPS, märkt att det skulle dippat rejält eller sett att belastning skulle gått ner på GPU när jag kollat.

Kört 3440x1440 och 3840x2160.

Permalänk
Medlem

Tycker DLSS / FSR är utmärkta tekniker, ett steg framåt i utvecklingen!
Mer prestanda för i stort sett samma bildkvalitet, speciellt om det är märkbart mer, ökar ju både för högre upplösningar och längre livstid på hårdvara. Och ärligt i 4k och över känns det generellt nästan nödvändigt för tunga titlar.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem

@SCORPIUS
Nu har jag inte DLSS men för mig känns det fortfarande precis som det gjorde då det kom. Iden menar jag då. Att köra högre inställningar än de kan ta fram ett grafikkort som klarar av i vettig tillverkningskostnad. Inte vad vi betalar, de betalar.

Jag ser IOFS fortfarande DLLS och FSR som något som framförallt konsoler kommer ha nytta av. Nu har nVidia förlorat den biten då det kommer till Sony och Microsoft. Men hoppas det kommer till framtida Nintendo konsoler.
Samt att FSR kommer till framtida Samsung telefoner då de ska köra RDNA2. Man kan ju hoppas det får utvecklingen till Android att ta fart så det kommer till fler Linux derivata snabbare.

Stavning
Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av F.Fairlane:

Kör jag med DLSS så flaskhalsar min CPU 100% load så att GPU:n går ner på 50-60% load. Detta innebär att jag får väldigt mycket fps-drops. Får stabilare fps/prestanda utan DLSS. Därför är DLSS helt ointressant för mig i nuläget.
Ni som kör med nyare CPU:er, hur upplever ni belastningen på CPU:n och GPU:n när ni kör med DLSS? Eller stirrar ni er bara blinda på max fps:en?
Kör med 2560x1440 upplösning.

Upplever samma! Black Ops CW med DLSS närmare bestämt. 9700k och 3070, kör också 1440p.
Tror DLSS fungerar bättre då man är tydligt GPU-begränsad.
Är man mer CPU-bunden verkar DLSS ge upphov till ojämn prestanda.

Permalänk

@wargreymon CPU och GPU står i min signatur men det är: i7-5930K @4.5 GHz och ASUS GeForce RTX 3070 EKWB @2070 MHz, 16000 MHz.

@datoriserad Om jag har förstått rätt så gör DLSS att exempelvis ett spel som körs i 1440p renderas i 1080p för att sedan göras om till 1440p och vid lägre upplösning så blir det högre CPU belastning då GPU:n skyfflar mer data än vad CPU:n mäktar med. När DLSS är inaktiverat och det renderas i högre upplösning så läggs det mer belastning på GPU:n och CPU:n hinner därmed med beräkningarna.

Visa signatur

Corsair Obsidian 750D | EVGA Z790 Classified | G.Skill Ripjaws S5 6000 MHz CL30 64GB DDR5 @6600 MHz CL30 | i9-13900KF @5.6 GHz | PNY GeForce RTX 3080Ti XLR8 Gaming Revel Epic-X RGB @2055 MHz, 19902 MHz | Cooler Master V1200 | CPU+GPU-kylning: EK Custom loop | BenQ XL2410T + LG UltraGear 34GP950G |

Permalänk
Medlem
Skrivet av medbor:

Ja jag håller med dig en del, men det känns så konstigt. Varför vill tillverkarna att vi ska vara nöjda med våra sämre kort längre? Då kommer vi ju inte uppdatera. Så länge båda har alternativ på marknaden som användaren kan välja kvalitet mot bildfrekvens så är det ju fair game. Men DLSS ska inte jämföras mot konkurrerande kort i native upplösning...

Jag ser DLSS och liknande som ett enkelt sätt att ändra spelet från ’high’ till ’medium’, utan att behöva pilla så mycket. Vissa saker ser lite sämre ut, vissa ser knappt någon skillnad, men bildfrekvensen ökas.

Problemet är ju att testa dessa tekniker mot varandra eftersom inget mått av absolut bildkvalitet existerar, så prestanda vid given bildkvalitet är ju nästan omöjligt utan att göra blindtest på tusentals personer.

Ärligt talat @JonasT: kanske kan vara en grej. Gör några videos med olika inställningar (low/mid/high/1080p/1440p/4K/DLSS-P/DLSS-Q) sen skriv en artikel och be oss användare betygsätta dessa, utan att vi vet vilken som är vilken. Kanske bädda in två slumpmässiga och vi får välja vilken som är bäst eller något? Typ som en quiz. Helst skulle man ju vilja slippa youtubes komprimering och ha mer spel än ett, men man kan nog starta ganska lätt. Skulle vara kul att få någon crowdsourced känsla för vilken kvalitet som faktiskt erbjuds

Är ju precis så att de senaste grafikkorten klarar av 4K idag. DLSS tillåter ju de att prestera väl vid 4K. Dessutom så är det ju vid den upplösningen det fungerar bäst där de flesta inte verkar se någon skillnad mellan DLSS och Native. Ska man sedan upp i höga frekvenser så kommer det nog dröja länge till innan vi entusiaster är relativt nöjda med vära grafikkort.

Gällande testningen på medlemarna får man ju i så fall göra videosnuttar med då jag tycker att där går det att se en viss skillnad ibland.

Permalänk
Medlem
Skrivet av SCORPIUS:

Har inte så mycket mer att säga om detta än att det är fint att dom jobbar vidare på DLSS.

Just DLSS och Fidelity FX Super Resolution var inte så intressant för mig, innan...
Nu är det.
För om priserna kommer hålla i sig på grafikkort kommer jag behöva använda grafikkort mycket längre än jag har tänkt framöver.
Då är alla tekniker för att hålla det i liv genast mer intressant än bildförbättringstekniker.

Så nu återstår det bara att lyckas få tag i ett grafikkort som stödjer det haha
Mitt 1070 tuffar på och gör så gott det kan. Som en lite trött gubbe.

amds version stöder även nvidia 🙂👍

Visa signatur

In science we trust!

Permalänk
Medlem
Skrivet av F.Fairlane:

@wargreymon CPU och GPU står i min signatur men det är: i7-5930K @4.5 GHz och ASUS GeForce RTX 3070 EKWB @2070 MHz, 16000 MHz.

Det såg jag inte på mobilen

Men ja, kan tänka mig att på ett spel som är ganska krävande på CPU blir en flaskhals. Kör du Quality i 1440p så renderar den i 960-1080p (tror olika spel har olika presets), sedan blir det ju lägre och lägre upplösning om du kör Performance etc, och med en 6 (7 i arkitektur?) generationer gammal CPU så blir det nog ganska märkbart.

Kollar man Sweclockers tester att vi ju en hel del förlust i både genomsnitt och min FPS när man kollar mot 7700K i 1080P. Äldsta de har ifrån Intel.

Så det är ju inte att DLSS i sig självt kräver mer CPU, detta görs ju på hårdvarunivå i tensorkärnorna. Utan att spelets krav flyttar ifrån GPU till CPU.

Permalänk
Skrivet av wargreymon:

Det såg jag inte på mobilen

Men ja, kan tänka mig att på ett spel som är ganska krävande på CPU blir en flaskhals. Kör du Quality i 1440p så renderar den i 960-1080p (tror olika spel har olika presets), sedan blir det ju lägre och lägre upplösning om du kör Performance etc, och med en 6 (7 i arkitektur?) generationer gammal CPU så blir det nog ganska märkbart.

Kollar man Sweclockers tester att vi ju en hel del förlust i både genomsnitt och min FPS när man kollar mot 7700K i 1080P. Äldsta de har ifrån Intel.

Så det är ju inte att DLSS i sig självt kräver mer CPU, detta görs ju på hårdvarunivå i tensorkärnorna. Utan att spelets krav flyttar ifrån GPU till CPU.

Ah tänkte inte på att det inte syns i mobiler.
Ju lägre upplösning det renderar i ju mer hinner GPU:n rendera och då hinner inte CPU:n med (flaskhals).
Så rent krasst så på gamla CPU:er är DLSS inte till någon hjälp eller delvis beroende på hur CPU intensiv titel är.
Vill belysa detta då en del verka tro att DLSS är det bästa sedan färdigskivad limpa uppfanns

Visa signatur

Corsair Obsidian 750D | EVGA Z790 Classified | G.Skill Ripjaws S5 6000 MHz CL30 64GB DDR5 @6600 MHz CL30 | i9-13900KF @5.6 GHz | PNY GeForce RTX 3080Ti XLR8 Gaming Revel Epic-X RGB @2055 MHz, 19902 MHz | Cooler Master V1200 | CPU+GPU-kylning: EK Custom loop | BenQ XL2410T + LG UltraGear 34GP950G |

Permalänk
Medlem
Skrivet av RHWarrior:

Tycker DLSS / FSR är utmärkta tekniker, ett steg framåt i utvecklingen!
Mer prestanda för i stort sett samma bildkvalitet, speciellt om det är märkbart mer, ökar ju både för högre upplösningar och längre livstid på hårdvara. Och ärligt i 4k och över känns det generellt nästan nödvändigt för tunga titlar.

Är FSR verkligen ett steg framåt? Av det vi sett på FSR är det som att gå tillbaka till tidig 2000-tals FSAA, ser ut som nån smetat vaselin på bilden :/

Permalänk
Medlem
Skrivet av Sveklockarn:

Det som intresserar mig allra mest med DLSS är inte uppskalning utan kantutjämning.

Alla andra AA-tekniker verkar ju bara blurra bilden och försämra bildkvalitén.

Håller helt med, kör hellre utan AA än att få den bieffekten.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

Har kört lite av/på med DLSS i gratis-spelet Control för att verkligen testa det. Den rendrerar bilden i lägre upplösning men jag tycker faktiskt inte man ser någon större skillnad på 1440p på en 32" - Mycket bra.

Det som förvärras är ju myrorna från ytor som har tung raytracaing (Flimmer även utan DLSS men som blir värre med DLSS)

Överlag, man får väl typ 30% bättre prestanda. Det är ju inte fel så jag kör med det påslaget.

Summering. Stor skillnad från DLSS 1.0 som verkligen var helt värdelöst.

Permalänk
Medlem
Skrivet av F.Fairlane:

Kör jag med DLSS så flaskhalsar min CPU 100% load så att GPU:n går ner på 50-60% load. Detta innebär att jag får väldigt mycket fps-drops. Får stabilare fps/prestanda utan DLSS. Därför är DLSS helt ointressant för mig i nuläget.
Ni som kör med nyare CPU:er, hur upplever ni belastningen på CPU:n och GPU:n när ni kör med DLSS? Eller stirrar ni er bara blinda på max fps:en?
Kör med 2560x1440 upplösning.

Jag har inte tittat specifikt på CPU-belastning innan och efter men jag märker inte att den skulle bli ansträngd när jag slår på DLSS. Kör på ett 3070 och en 10600k

Permalänk
Medlem

DLSS är endast bra i 4K. I lägre upplösningar ser det inte så bra ut.

Så DLSS är inte användbart för många i praktiken.

Kommer va samma med AMDs lösning.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem
Skrivet av Dizzö:

DLSS är endast bra i 4K. I lägre upplösningar ser det inte så bra ut.

Så DLSS är inte användbart för många i praktiken.

Kommer va samma med AMDs lösning.

Ser fint ut på min 1440-skärm. Visst kan man se lite försämrad kvalitet om jag pausar och jämför bilderna bredvid varandra men vid normalt spelande är det extremt sällan jag märker av något.

Jag väljer dock att prioritera bildkvalitet före prestanda i dlss-menyerna, kanske blir skillnaden större om man prioriterar prestandan.

Permalänk
Medlem
Skrivet av murklor:

Är FSR verkligen ett steg framåt? Av det vi sett på FSR är det som att gå tillbaka till tidig 2000-tals FSAA, ser ut som nån smetat vaselin på bilden :/

Jag menade konceptet generellt, inte kikat på FSR-exempel. Om det gör bilden för mjuk, tja då kanske det inte är så användbart för alla, i alla fall i denna revision. Oavsett så bör det låta folk med klenare GPU:er pumpa upp FPS i alla fall.

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|