Nvidia lanserar verktyg för skarpare video

Permalänk
Melding Plague

Nvidia lanserar verktyg för skarpare video

Med det gröna lagets senaste drivrutin anländer Video Super Resolution, som lovar bättre bildkvalitet och utsuddade artefakter i strömmad video.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Experimenterade lite med det i går och vet inte riktigt vad jag tycker. Använder man funktionen med lägre upplöst video (under 720p) blir det en väldigt grötig, utsmetad bild som inte alltid är bättre än originalet. Och det blir ju bökigt eftersom man måste in i Nvidias kontrollpanel för att stänga av och på funktionen.

Jag kommer nog att lämna den avslagen fram tills att Nvidia/Chrome fixar en hotkey eller liknande för att aktivera och inaktivera.

Visa signatur

i7 8700k – Scythe Mugen 5 Rev.B-kylare // Galax RTX 3080 SG // 16GB G.Skill DDR4 3200 // Corsair RM750i // Phanteks Eclipse P400 TG

Permalänk
Medlem

Kollade lite olika klipp och tycker att skillnaden är inte dramatisk men den finns där. Däremot tycker jag det kostar mer än det smakar i effekt. över 100w extra på grafikkortet för detta.

Men t.ex detta klipp med rallybilar och mycket fin-detalj vegetation så ser det bättre ut. Gjorde så att jag satte VSR-togglen på en annan skärm och flippade den fram och tillbaka utan att veta vad som är av och på så att säga.

https://www.youtube.com/watch?v=w8U52uaN0Zc&t=260s

Jag tycker det är ett gott försök, och hade inte räknat med vad vi såg i marknadsföringen, men hade ändå räknat med lite mer. Skulle vara bra om man kunde sätta på och slå av från VSR-inställningen direkt i YT-videon.

edit: Jättekonstigt, provade lite nu på morgonen också. Och ser inte längre den brutala effektökningen, nu är det mer 10-20w, men definitivt en effektökning, men inte så stor. Får undersöka detta bättre känns det som. Kan se att det fortfarande fungerar iallafall. Kör 4090.

edit2: Det är nog inte så dumt det här ändå. Det ser bättre ut i många fall. På mitt kort drar det inte speciellt mycket ström.

Permalänk
DingDongerMcDongface
Skrivet av Lussarn:

Kollade lite olika klipp och tycker att skillnaden är inte dramatisk men den finns där. Däremot tycker jag det kostar mer än det smakar i effekt. över 100w extra på grafikkortet för detta.

Men t.ex detta klipp med rallybilar och mycket fin-detalj vegetation så ser det bättre ut. Gjorde så att jag satte VSR-togglen på en annan skärm och flippade den fram och tillbaka utan att veta vad som är av och på så att säga.

https://www.youtube.com/watch?v=w8U52uaN0Zc&t=260s

Jag tycker det är ett gott försök, och hade inte räknat med vad vi såg i marknadsföringen, men hade ändå räknat med lite mer. Skulle vara bra om man kunde sätta på och slå av från VSR-inställningen direkt i YT-videon.

edit: Jättekonstigt, provade lite nu på morgonen också. Och ser inte längre den brutala effektökningen, nu är det mer 10-20w, men definitivt en effektökning, men inte så stor. Får undersöka detta bättre känns det som. Kan se att det fortfarande fungerar iallafall. Kör 4090.

edit2: Det är nog inte så dumt det här ändå. Det ser bättre ut i många fall. På mitt kort drar det inte speciellt mycket ström.

Intressant med effektökningen! Jag hade tänkt se om jag kan sätta mig och testa lite under dagen, ska hålla utkik för det i så fall. Jag fick kika på detta i ganska tidigt skede när de visade det under CES, och där tyckte jag det såg riktigt bra ut, men då var det också bara ett testscenario/klipp. Så det kan ju säkerligen ha varit utvalt för att visa ett material där det verkligen gör skillnad.

Permalänk
Medlem
Skrivet av Lussarn:

Kollade lite olika klipp och tycker att skillnaden är inte dramatisk men den finns där. Däremot tycker jag det kostar mer än det smakar i effekt. över 100w extra på grafikkortet för detta.

Men t.ex detta klipp med rallybilar och mycket fin-detalj vegetation så ser det bättre ut. Gjorde så att jag satte VSR-togglen på en annan skärm och flippade den fram och tillbaka utan att veta vad som är av och på så att säga.

https://www.youtube.com/watch?v=w8U52uaN0Zc&t=260s

Jag tycker det är ett gott försök, och hade inte räknat med vad vi såg i marknadsföringen, men hade ändå räknat med lite mer. Skulle vara bra om man kunde sätta på och slå av från VSR-inställningen direkt i YT-videon.

edit: Jättekonstigt, provade lite nu på morgonen också. Och ser inte längre den brutala effektökningen, nu är det mer 10-20w, men definitivt en effektökning, men inte så stor. Får undersöka detta bättre känns det som. Kan se att det fortfarande fungerar iallafall. Kör 4090.

edit2: Det är nog inte så dumt det här ändå. Det ser bättre ut i många fall. På mitt kort drar det inte speciellt mycket ström.

Hehe, vilken resa i känslor i ditt inlägg Kul att du testade

Visa signatur

Dator 1: ROG STRIX B560-F | Intel i7-11700K | GeForce RTX 3080 FE | 32GB DDR4-3200 | 2+1TB
Dator 2: Asus P7H55D-M Pro | Intel i5 650 | Onboard GPU | 16GB DDR3-1333 | 32TB
Dator 3: ASRock E350M1 | AMD E-35 | Onboard GPU | 4GB DDR3-1333 | 32TB
Dator 4: Asus E45M1-I Deluxe | AMD E-450 | Onboard GPU | 8 GB DDR3-1333 | 16TB
Dator 5: Gigabyte H55N-USB3 | Intel i3 530 | Onboard GPU | 4GB DDR3-1066 | 1TB

Permalänk
Medlem
Skrivet av car2ns:

Hehe, vilken resa i känslor i ditt inlägg Kul att du testade

Ja, jag vill ju inte köpa det rakt av. Är det skit skulle jag säga det. Men mest var det effektökningen som var boven. Om den sedan uteblev så satte det allt i en annan dager.

Jag kan ha sett fel när jag kollade igår. Kanske hade någon annan app igång osv. Jag läste på reddit att många andra verkar se en lite för stor effektökning, men det kanske är annorlunda på 3000-serien också.

Permalänk
Medlem

Någon som förstår hur det funkar rent tekniskt?

Gissar att det handlar om bilder som är skarpa men som blir suddiga i uppspelaren och som den här funktionen återställer till hur dom ska se ut.
Inte kan den väl göra en lite suddig bild skarp på riktigt?
Har sett några olika uppskalningstekniker som påstår sig kunna göra en oskarp bild bättre, som det brukar vara i kriminalserier när man zoomar in på en dålig övervakningskamera och får bättre bild än kameran kan leverera men samtliga såna tekniker som jag sett på riktigt har varit värdelösa.

Permalänk
Medlem

Själv upplevde jag minimal skillnad med mitt RTX3070 och nivå 4. Tittade mest på diverse Twitch kanaler. Men jäklar vad gpun fick arbeta. Fläktarna varvade mer än dom brukar vid vissa spel och i afterburner visa kortet en förbrukning på över 100W och gpuns frekvenser på max. Detta gentemot utan ca 20W och gpuns frekvenser på låg nivå.

Visa signatur

AMD Ryzen 5600X, 4x8GB@3600MHz Crucial DDR4,MSI MAG X570 TOMAHAWK-WIFI & Asus RTX 3070 8GB

Permalänk
Medlem
Skrivet av Lussarn:

Ja, jag vill ju inte köpa det rakt av. Är det skit skulle jag säga det. Men mest var det effektökningen som var boven. Om den sedan uteblev så satte det allt i en annan dager.

Jag kan ha sett fel när jag kollade igår. Kanske hade någon annan app igång osv. Jag läste på reddit att många andra verkar se en lite för stor effektökning, men det kanske är annorlunda på 3000-serien också.

Ja helt rätt, klagade inte på att du inte svalde med hull och hår Det var bara rätt underhållande att läsa ditt original meddelande och sen dom två EDIT direkt efter varann

Lite som när man ger sitt barn riktig mat för första gången;
"what is this, det här är inte vad jag ätit senaste tiden."
EDIT1: "Hmm intressant, det smakar ... annorlunda."
EDIT2: "Ah okej, detta kan nog bli något, jag gillar det."

Så jag läste ditt inlägg

Visa signatur

Dator 1: ROG STRIX B560-F | Intel i7-11700K | GeForce RTX 3080 FE | 32GB DDR4-3200 | 2+1TB
Dator 2: Asus P7H55D-M Pro | Intel i5 650 | Onboard GPU | 16GB DDR3-1333 | 32TB
Dator 3: ASRock E350M1 | AMD E-35 | Onboard GPU | 4GB DDR3-1333 | 32TB
Dator 4: Asus E45M1-I Deluxe | AMD E-450 | Onboard GPU | 8 GB DDR3-1333 | 16TB
Dator 5: Gigabyte H55N-USB3 | Intel i3 530 | Onboard GPU | 4GB DDR3-1066 | 1TB

Permalänk
Medlem

Trist man har ett gammalt 2080ti då

Detta borde gå att göra i SW med

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem
Skrivet av Stan Carley:

Någon som förstår hur det funkar rent tekniskt?

Gissar att det handlar om bilder som är skarpa men som blir suddiga i uppspelaren och som den här funktionen återställer till hur dom ska se ut.
Inte kan den väl göra en lite suddig bild skarp på riktigt?
Har sett några olika uppskalningstekniker som påstår sig kunna göra en oskarp bild bättre, som det brukar vara i kriminalserier när man zoomar in på en dålig övervakningskamera och får bättre bild än kameran kan leverera men samtliga såna tekniker som jag sett på riktigt har varit värdelösa.

Andra meningen i första stycket. Du har väl inte lyckats undgå att läsa om DLSS i 2.5 år?

Permalänk
Medlem
Skrivet av wargreymon:

Andra meningen i första stycket. Du har väl inte lyckats undgå att läsa om DLSS i 2.5 år?

Tack missade det

Permalänk
Medlem

Mitt 4090 kan dra uppemot 300W när jag ser på twitch. Faktist rätt bra resultat, men till detta energipris? nja...
då får uppskalningen på en äldre oled tv duga.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av marcusOCZ:

Mitt 4090 kan dra uppemot 300W när jag ser på twitch. Faktist rätt bra resultat, men till detta energipris? nja...
då får uppskalningen på en äldre oled tv duga.

Det kanske är väldigt beroende på vad man tittar på, mysko.

Kollade även en twitchstream nu. 8 Watt extra verkar det ta, och det är ju inte så mycket

En "out there" teori skulle ju vara att den bygger datastrukturer första halvtimman man använder det (drar en himla massa ström) och sedan lugnar det ner sig. Jag tyckte ju också det drog mycket ström igår.

Permalänk
Medlem

Man ser en liten förbättring i skärpan (testade i 480p), men jag tycker inte att det känns motiverande med den ökade energiförbrukningen. Men ge det några år så kanske det kan bli något. Tittar man på DLSS så har det ju skett stora förbättringar sedan 1.0 släpptes 2019, så man kan ju hoppas på liknande utveckling för VSR.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Administrativ avgift
Skrivet av Lussarn:

Kollade lite olika klipp och tycker att skillnaden är inte dramatisk men den finns där. Däremot tycker jag det kostar mer än det smakar i effekt. över 100w extra på grafikkortet för detta.

Men t.ex detta klipp med rallybilar och mycket fin-detalj vegetation så ser det bättre ut. Gjorde så att jag satte VSR-togglen på en annan skärm och flippade den fram och tillbaka utan att veta vad som är av och på så att säga.

https://www.youtube.com/watch?v=w8U52uaN0Zc&t=260s

Jag tycker det är ett gott försök, och hade inte räknat med vad vi såg i marknadsföringen, men hade ändå räknat med lite mer. Skulle vara bra om man kunde sätta på och slå av från VSR-inställningen direkt i YT-videon.

edit: Jättekonstigt, provade lite nu på morgonen också. Och ser inte längre den brutala effektökningen, nu är det mer 10-20w, men definitivt en effektökning, men inte så stor. Får undersöka detta bättre känns det som. Kan se att det fortfarande fungerar iallafall. Kör 4090.

edit2: Det är nog inte så dumt det här ändå. Det ser bättre ut i många fall. På mitt kort drar det inte speciellt mycket ström.

En effektökning är väl garanterad då du använder rtx cores vilket du vanligtvis inte gör annars ? Sen beroende på vilket övervakningsprogram man kör kan det öka effekten

Visa signatur

Loque Raw s1| 7950x3D | B650-i | 2x16GB DDR5 CL30@6000 | 2TB m.2 | 4090 TUF | Samsung G9 49 | Vive Focus 3

Permalänk
Medlem

Jag är för alla bildförbättrande tekniker. Oavsett hur dåliga dom är idag.
För riktigt bra tekniker kommer. Med tiden. Bra bildförbättrande tekniker och högre bitrate, ja tack.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Bildexpert 📺

Fascinerade hur man hela tiden försöker och inbillar sig att att det går att sminka grisar och polera bajskorvar genom allt mer omfattande algoritmer. Har 20+ år i ryggen av techdemo:s med liknande lösningar. Varje gång är man stolt eftersom det är flera år av utveckling (och säkert nya patent) med hårt jobb från rejäla snillen med matematisk förkärlek till den perfekta bilden.

Och visst – varje gång får jag se demoexempel på hur det faktiskt skärper upp någonting. Och varje gång jag får chansen att själv testa klarar jag av max tio sekunder för det märks så väl att något är där och processar, tuggar och adderar något till bilden som inte hör hemma där. I slutändan blir allt bara ännu ett sälj- och reklamargument om Super Advanced Reality Perfect Intelligent Something Something som ingen minns något om efter ett par år.

Om jag fick en krona varje gång... ....så skulle jag ha en rätt rejäl påse godis vid det här laget.

Permalänk
Medlem

Något som Nvidia Shield kommer ha användning av av på något sätt??

Visa signatur

Chassi Fractal design R6 USB C, Skärm LG UltraGear 38GN950 38" Moderkort ASUS ROG STRIX X570-E GAMING CPU 5800X3D RAM G.Skill 4x8 DDR4 3600MHz CL16 Ripjaws SSD 1 Samsung 970 EVO Plus 250GB SSD 2 CRUCIAL MX500 2TB. SSD 3 WD SN770 2TB,SSD 4 SAMSUNG 970EVO 512GB, GPU Gigabyte Geforce RTX 3080 10GB AORUS XTREME NON LHR. Nätagg Corsair RM1000x.

Permalänk
Medlem
Skrivet av macbang:

Något som Nvidia Shield kommer ha användning av av på något sätt??

Knappast. Nyaste nvidia shield har en uppskalare som dom kallar "AI", men det är mer åt skärpefilterhållet. Fungerar ibland, och ibland ser det jättetokigt ut.¨

Den har ingen CPU som klarar att köra detta iallafall.

Permalänk
Medlem
Skrivet av Laxpudding:

Fascinerade hur man hela tiden försöker och inbillar sig att att det går att sminka grisar och polera bajskorvar genom allt mer omfattande algoritmer. Har 20+ år i ryggen av techdemo:s med liknande lösningar. Varje gång är man stolt eftersom det är flera år av utveckling (och säkert nya patent) med hårt jobb från rejäla snillen med matematisk förkärlek till den perfekta bilden.

Och visst – varje gång får jag se demoexempel på hur det faktiskt skärper upp någonting. Och varje gång jag får chansen att själv testa klarar jag av max tio sekunder för det märks så väl att något är där och processar, tuggar och adderar något till bilden som inte hör hemma där. I slutändan blir allt bara ännu ett sälj- och reklamargument om Super Advanced Reality Perfect Intelligent Something Something som ingen minns något om efter ett par år.

Om jag fick en krona varje gång... ....så skulle jag ha en rätt rejäl påse godis vid det här laget.

Jag skulle inte vara så hård. AI-revolutionen är i sin linda och det kommer gå framåt och bakåt och åt sidan några gånger innan man hittar rätt. Det man sett när dom slänger på machine learning på GTA5 och får det att se verkligt ut är rätt häftigt, så skulle jag vilja göra på spelen när jag spelar. Det här är ett litet steg för att komma närmare den typen av grejer i realtid.

Anser också att nyttan för just detta i praktiken inte är så stor.

Permalänk

förbättras youtube tittandet med detta eller är det till för ngt annat?

Permalänk
Medlem
Skrivet av Gender Bender:

Man ser en liten förbättring i skärpan (testade i 480p), men jag tycker inte att det känns motiverande med den ökade energiförbrukningen. Men ge det några år så kanske det kan bli något. Tittar man på DLSS så har det ju skett stora förbättringar sedan 1.0 släpptes 2019, så man kan ju hoppas på liknande utveckling för VSR.

Du får nog testa innan du uttalar dig om DLSS. DLSS 3 är helt underbar. Har testat lite. Får över 100 FPS extra i spel utan att tumma på bildkvalité alls. Däremot DLSS 2 tyckte jag inte om alls. Så jo det har blivit mycket bättre.

Permalänk

testade på en 1080p video på youtube, på en 1440p skärm, såg ingen direkt förbättring, inget stort märkbart bortsätt från att kortet jobbade mer och gick på 70 grader under youtube, vilket är helt onödigt tycker jag för vad det gav, vill inte att datorn går på högvarv för att titta på en youtube video, så slog av det.

kör ett 3080, med steg 1 på VSR, men inte värt det extra förbrukning och värme.
kan säkert vara intressant att testa på äldre video eller lägre upplösning, 1080 till 1440 var enligt mig inte värt det.

Men tekniken är intressant, om de kan få ner hur mycket det kräver av kortet så gärna, men just nu är det inte värt det.
hade gärna haft möjligheten att ställa in vilka program som kan använda det, kanske går och jag inte hittade, eller möjligheten (ligger på google) att i youtube sätta videon till VSR eller inte, men är lite överkurs i detta tidiga stadium.

Visa signatur

|Dator: | Phantek P400S | Ryzen 5900X | X570 Aorus Elite | RTX 3080 Ventus OC | Corsair 64gb DDR4 | x2 970 EVO 1Tb | Corsair HX 850i | AC Liquid Freezer II 280 |

Permalänk
Medlem

Idén är ju bra men själva utförandet låter inte särskilt vidare om det drar så mycket extra ström. Som alternativ använder jag personligen en "Super Resolution" inställning på Gigabyte M32Q som ger lite skarpare bild på lägsta nivån så man inte distortar bilden överlag. Som sekundär skärm/TV har jag en 32" Sony TV och den har ju inbyggd uppskalningsfunktion som ger betydligt bättre kvalité på speciellt 1080p Twitch streams så utan "Super Resolution" inställningen på Gigabyte skärmen upplevs streamar ganska som suddiga/mjuka så jo hade varit najs med en "universell" lösning som Nvidias men som sagt verkar som de får jobba vidare och utveckla funktionen, kanske hårdvaru accelererad i kommande generationer, låter väl som det är 100% mjukvaru lösning idagsläget med tanke på resultatet.

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk
Bildexpert 📺
Skrivet av Lussarn:

Jag skulle inte vara så hård. AI-revolutionen är i sin linda och det kommer gå framåt och bakåt och åt sidan några gånger innan man hittar rätt. Det man sett när dom slänger på machine learning på GTA5 och får det att se verkligt ut är rätt häftigt, så skulle jag vilja göra på spelen när jag spelar. Det här är ett litet steg för att komma närmare den typen av grejer i realtid.

Anser också att nyttan för just detta i praktiken inte är så stor.

Helt annan sak med AI-uppskalning i spel då det i spelen är en del av renderingsprocessen och hur bilden skapas. Där fungerar DLSS etc. väldigt bra, särskilt i kombination med hög upplösning.

Att i efterhand processa en bild som är fångad med kamera och (ofta) sönderkomprimerad distribution fungerar inte. Där är lösningen en hög produktions- och distributionskvalitet från första början ifall man vill uppnå en skarpare och tydligare bild.

Permalänk
Medlem
Skrivet av Laxpudding:

Helt annan sak med AI-uppskalning i spel då det i spelen är en del av renderingsprocessen och hur bilden skapas. Där fungerar DLSS etc. väldigt bra, särskilt i kombination med hög upplösning.

Att i efterhand processa en bild som är fångad med kamera och (ofta) sönderkomprimerad distribution fungerar inte. Där är lösningen en hög produktions- och distributionskvalitet från första början ifall man vill uppnå en skarpare och tydligare bild.

DLSS fungerar väl exakt så? All info den har är väl en matris av pixlar? Helt annan sak? Fungerar väl som vilken avancerad HiRes sharpener-mjukvara som helst med lite nVidia-marknadsföring som krydda. Dessa fungerar på jpg-bilder som även dessa har komprimering med förluster och artefakter.

EDIT:
Nej det är inte AI, det är ML, en massa insamlad statistik, från det specifika spelet i fråga är väl enda fördelen?

AI FINNS INTE!
Permalänk
Medlem
Skrivet av Laxpudding:

Helt annan sak med AI-uppskalning i spel då det i spelen är en del av renderingsprocessen och hur bilden skapas. Där fungerar DLSS etc. väldigt bra, särskilt i kombination med hög upplösning.

Att i efterhand processa en bild som är fångad med kamera och (ofta) sönderkomprimerad distribution fungerar inte. Där är lösningen en hög produktions- och distributionskvalitet från första början ifall man vill uppnå en skarpare och tydligare bild.

Det finns inget teoretiskt hinder för att få det att funka på video. I princip är det bara en fråga om tillräckligt bra algoritmer och beräkningskraft.

I det här fallet ser det ut att funka rätt bra i fråga om att skala upp Youtubes skitkvalitet på 720p och 1080p video.

Permalänk
Medlem

Jag testade lite på YouTube 1080p video nyss. Utan VSR låg GPUn på 10-13%, på nivå 1 gick den upp till 30%.

Ett tips är att testa videos i 720p och lägre så ser ni lättare skillnad.

Jag ser en del förbättringar med VSR, främst att komprimeringsartefakter som banding minskar. Men tyvärr ser bilden mer och mer "målad" ut ju högre nivå du kör, alltså att det är för mycket noise reduction.

Smaksak om man gillar det, bilden ser renare ut ja, men inte bättre enligt mig. På nivå 1 är detta inte lika märkbart, så jag ska testa att köra det ett tag.

Kör ett RTX3080.

Visa signatur

MSI B650 Tomahawk / AMD 7800X3D / 2x16 GB Kingston Fury 6000Mhz DDR5 / ASUS TUF RTX3080 10GB / Corsair RM850x Shift / + Acer Predator XB27HU / Schiit Fulla 2 + Sennheiser/Massdrop 58X + XTZ Tune 4

Permalänk
Medlem

Bra, tittade nyligen på American idol på youtube och de första klippen lades som vanligt upp i 1080p men så har de bestämt att det är för bra och tog ett stort steg tillbaka i tiden och tyckte att 720p får räcka.

Visa signatur

Ryzen 3700x, ASUS PRIME X370-PRO, 32GB ram, RTX 2080, Acer XN253Q 240Hz, MSI G241 IPS 1080p 144Hz, Varmilo VA88M (MX Brown), Cooler Master MM710.