Anmäl dig till Roborock Challenge!

92 procent aktiverar DLSS och RTX 50-serien säljer som smör

Permalänk
Medlem
Skrivet av Söderbäck:

Nu har jag inte jämfört på flera år - och har heller inte nytt grafikkort.

Men redan i death stranding fick man till bättre kantutjämning med DLSS än med alla andra tillgängliga in game settings.
Så länge man körde på quality så såg spelet faktiskt bättre ut med DLSS än utan. Iaf enligt mig.
För man slapp så mycket glittrande aliasing-effekter.

Det är för att moderna spel förlitar sig på DLSS och skiter i att implementera riktig AA-teknologi. Ett spel i native med riktig AA kommer se bättre ut än DLSS varje dag i veckan. Pröva ett spel med i 4K native med tvingad MSAA och jämför där istället.

Permalänk
Medlem
Skrivet av Yoshman:

Se markerade ovan. Det finns artefakter som uppstår p.g.a. att man rastrerar till en upplösning som inte är oändlig, i de fall där sådant inte hanteras alls alt. hanteras dåligt uppstår just glittrande/blinkande texturer i områden av bilden där det finns stora färg/ljuskontraster mellan närliggande pixels.

I sin råaste form skulle det kunna se ut så här där "off" här är "100 % native", tvivlar på att någon anser det vara bättre än det filtrerade fallet till vänster.
https://docs.unity3d.com/Packages/com.unity.visualeffectgraph@10.2/manual/images/Block-SubpixelAntiAliasingExample.gif

Finns olika AA-tekniker. Men är egentligen bara TAA (eller varianter likt DLSS) som ger en riktigt bra lösning på det problemet. Just dessa "shimmering effects" är en av de artefakter jag själv lättast ser i en bild, vilket möjligen gör mig lite väl positivt inställd till tekniker som DLSS...

Så redan här kan DLSS ge "bättre än native" resultat. Och ovanpå det har TAA/DLSS också fördelarna att de använder information från tidigare frames+hur saker rört sig. Rätt använt betyder också det att om man använder sådana tekniker finns helt enkelt mer information om scenen att jobba med jämfört med "native", så allt annat än fake-frames (naivt använt har det dock en tendens att bli "blurry" och/eller ghosting).

Men DLSS är långt mer än så. Även i en perfekt optimerad pipeline kommer man ju få ännu högre prestanda med DLSS, prestanda som då t.ex. kan användas för bättre ljusberäkningar och andra beräkningar som inte annars vore möjligt. I det läget är det "bättre än native" helt enkelt för man kan kosta på sig en mer fysiskt korrekt beskrivning av världens.

Håller helt med i att DLSS och liknande är bra tekniker för att kunna köra tunga saker på mindre "lämpad" hårdvara

Skrivet av Yoshman:

Det "negativa" DLSS (och andra uppskalningstekniker) medför är möjligen att man "kommer undan" med att skippa en rad optimeringar då en av huvudeffekterna av tekniken är att det krävs mindre resurser för att rendera (oavsett hur dåligt eller bra optimerat det är). Så effekten kan mycket väl bli att pressade scheman och budgetar gör att man kräver DLSS som "plåster".

Fast detta är väl inte helt sant, de artefakter som DLSS (och liknande skapar) främst kring ljus och objekt i rörelse får väl också ses som en nackdel?
I övrigt är det precis TIs poäng, DLSS och liknande har i modern spelutveckling blivit ett "plåster" som används för en ok slutbild, där det antagligen inte alls hade behövts om spelet istället hade optimerats, och vi hade istället haft "samma" bildkvalitet i native som med DLSS, snarare än att native är sämre

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH Platinum 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av Tenerezza:

Helldivers 2 har inte DLSS, vet inte ens vart du fått det ifrån. Spelet använder äldre tekniker för uppskalning, inte ens fsr, resulterar oftast i pixlig grafik om man inte sätter det typ 1:2 vs upplösning eller liknande. DLSS har inte de problemen alls.

Jahapp, får väl ta en screenshot på inställningen då senare, för jag har funktion att kunna välja mellan balanced, performance och quality

Visa signatur

My rig 144hz 1440p 27" samsung g5, Zotac rtx3070 8gb, 11900K, TR Peerless assassin,Gigabyte z590 UD, 32GB 3200MHz Vengeance, 1tb nv2, 2TB SSD 4TB HDD, corsair750 vengeance, Lancool 215.
backup 180Hz MSI 1080p 24", 3060ti 8gb, Ryzen 5700X3D,Peerless assassin 120 , Msi b550 pro vdh wifi, 32gb 3600 corsair, 1tb P9a1 + mer lagring, Corsair vengeance 750w, phantek p400a
3rd PC Asus rtx4060, ryzen 5600, MSI b550 pro vdh, 32GB 3200, 1tb Samsung PM9A1, 1tb mx500, MSI MAG650w. HTPC 3060, 10400F, 16GB, 500GB NVME, 960GB A400
Laptop Lenovo Legion 5, 2060, 4800H, 16GB, 1,5TB NVME

Permalänk
Medlem
Skrivet av Gtoxed:

Jahapp, får väl ta en screenshot på inställningen då senare, för jag har funktion att kunna välja mellan balanced, performance och quality

https://www.digitaltrends.com/computing/helldivers-2-ceo-dlss...

https://www.tweaktown.com/news/96508/helldivers-2-studio-boss...

Inte dlss du har

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av sweisdapro:

Sen har vi trådarna med 12VHPWR som brinner hos nvida igen, och då är det givetvis psu som är boven, inte oskyldiga lilla Nvidia.

Det här går åt båda hållen dock. Det finns dom som bestämmt sig för att den här kontakten kommer smälta och det finns inga variabler man som användare kan påverka för att det inte skall hända just mig.

Jag är av en annan åsikt. Kontakten är inte lika robust som gamle 3-4xPcie kontakter och man behöver vara försiktigare med den. Den kan smälta vid 600W, det vet vi, undisputed. Måste det hända, jag är inte lika säker på det. Det finns variabler att påverka som användare. Se till att ha bra luftflöde, överstressa inte kabeln, byt ut kabeln om den ser eller känns utsliten t.ex. Jayz2c gjorde sin undersökning att alla kablar kanske inte är så jäkla bra byggda, kanske Corsair byter ut sin nu. Det är bra grejer.

Det är viktigt att sådan här information kommer fram också. Precis lika viktigt som att sitta och klaga på Nvidia på ett svenskt internetforum för det är saker du själv kan påverka. Att få Nvidia att ändra sig det är ett större mål och inget vi kan påverka här och nu, och inget som påverkar din faktiska setup för tillfället.

Ja, det var ju lite off topic för själva tråden detta. Men allt det klagande man ser på precis allt Nvidia gör, det är så innibomben tröttsamt att läsa sida upp och sida ner. PhysX är skit det måste försvinna (Nvidia suger), Nvida tar bort Physx (Nvidia suger). Det är ett no win scenario för många har bestämmt sig att ALLT Nvidia gör är skit. Det är likadant i den här tråden.

Nvidia kom inte på uppskallning, vi har haft uppskalning i våra monitorer som suger sen dom blev platta. Konsollerna har kört uppskalning sen jag vet inte när. Nu råkar Nvidia ha tagit tag i problemet på ett sätt som objektivt är bra (bäst), och då blev DLSS givetvis skit det också.

Visa signatur

- 5090

Permalänk
Hedersmedlem
Skrivet av maoi:

Har man spelat sedan innan DLSS och liknande kom ut så tror jag att de allra flesta ser skillnad med det påslaget. Men är man relativt ung och det slås på automatiskt så har man ju inget att jämföra med. Men för egen del åker det av direkt då jag tycker att det ser ut som skit i alla spel jag testat förutom Cyberpunk där det ser helt okej ut.

Intressant då texturerna i Cyberpunk lidit mycket mer av DLSS (CNN-modellen) än många andra spel. Eller har du bara testat på sistone, sedan DLSS 4 kom? Isåfall är det väl transformer-modellen du gillar, som du kan få i typ alla spel med NVIDIA-appen.

Har för övrigt spelat på dator sedan typ 1994 och gillar DLSS. Ser jag skillnad? Ja, ibland så, men det är väldigt värt det i många spel. I vissa blir det som sagt utan tvekan bättre än "native" (främst där native är TAA, vilket väl är rätt vanligt nu).

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Intressant då texturerna i Cyberpunk lidit mycket mer av DLSS (CNN-modellen) än många andra spel. Eller har du bara testat på sistone, sedan DLSS 4 kom? Isåfall är det väl transformer-modellen du gillar, som du kan få i typ alla spel med NVIDIA-appen.

Har för övrigt spelat på dator sedan typ 1994 och gillar DLSS. Ser jag skillnad? Ja, ibland så, men det är väldigt värt det i många spel. I vissa blir det som sagt utan tvekan bättre än "native" (främst där native är TAA, vilket väl är rätt vanligt nu).

Väldigt intressant då Nvidia använd Cyberpunk som demo hela tiden att det skulle vara bland det sämsta, aldrig hört om förut.

Permalänk
Hedersmedlem
Skrivet av maoi:

Väldigt intressant då Nvidia använd Cyberpunk som demo hela tiden att det skulle vara bland det sämsta, aldrig hört om förut.

Jämförelse här, 4:40-5:16.

Tror väl inte att det är bland de sämsta DLSS-spelen totalt sett för det, men sannolikt inte heller bland de bästa.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

DLSS 3 Quality 1440p var acceptabelt. Den gjorde Cyberpunk spelbart med RT Ultra på en 3080, gav 100 FPS med samma kort i Black Ops 6 eller Indiana Jones. DLSS 4 ger mer eller mindre samma ”prestandaökning” men är inte bara acceptabelt utan ser faktiskt bra ut. Jag blev chockad över skillnaden i CP2077.

Visa signatur

Alienware AW2723DF- LCD2C-
Apollo Twin X-MacBook Pro M1
Aune X1S-GT- Ryzen 7 9800X3D- RTX4080- NCase M2
Everybody has a plan until they get their mouthgard punched out of the ring in the first round!

Permalänk
Hedersmedlem
Skrivet av Slashgibber:

Det är för att moderna spel förlitar sig på DLSS och skiter i att implementera riktig AA-teknologi. Ett spel i native med riktig AA kommer se bättre ut än DLSS varje dag i veckan. Pröva ett spel med i 4K native med tvingad MSAA och jämför där istället.

MSAA är inte riktig AA, du tänker på SSAA.

MSAA är ett fusk för att ge högre prestanda i utbyte mot mer artefakter.

Känns det igen?

Visa signatur

I am a prototype for a much larger s󠅄󠅘󠅕󠄐󠅞󠅕󠅕󠅔󠄐󠅤󠅟󠄐󠅒󠅕󠄐󠅟󠅒󠅣󠅕󠅢󠅦󠅕󠅔󠄐󠅑󠅞󠅔󠄐󠅥󠅞󠅔󠅕󠅢󠅣󠅤󠅟󠅟󠅔󠄐󠅧󠅑󠅣󠄐󠅟󠅞󠅓󠅕󠄐󠅣󠅑󠅤󠅙󠅣󠅖󠅙󠅕󠅔󠄐󠅒󠅩󠄐󠄷󠅟󠅔󠄞󠄐󠄾󠅟󠅧󠄐󠅧󠅕󠄐󠅓󠅑󠅞󠄐󠅙󠅝󠅠󠅜󠅕󠅝󠅕󠅞󠅤󠄐󠅤󠅘󠅕󠄐󠅣󠅑󠅝󠅕󠄐󠅖󠅥󠅞󠅓󠅤󠅙󠅟󠅞󠅑󠅜󠅙󠅤󠅩󠄐󠅧󠅙󠅤󠅘󠄐󠅔󠅑󠅤󠅑󠄝󠅝󠅙󠅞󠅙󠅞󠅗󠄐󠅑󠅜󠅗󠅟󠅢󠅙󠅤󠅘󠅝󠅣󠄞ystem

Permalänk
Medlem

Eftersom nVidia data är totalt irrelevant så vore det betydligt mer intressant att se aktuell data från de största titlarna gällande andel som kör med det på eller av. Då skulle man ju också se vilka titlar som attraherar användare att köra med funktionen påslagen.

Visa signatur

ASUS ROG Strix X570-F, AMD Ryzen 9 5900X, ASUS GTX 1080 Ti Strix Gaming OC, 32GB G.Skill Trident Z Neo CL16 3600MHz, Arctic Freezer II 240, Seasonic Prime Titanium 850W, Phanteks Enthoo Evolv X, 2x Samsung 970 EVO Plus 1TB, Seagate Firecuda 2TB, Seagate Ironwolf 4TB, ASUS PG278Q

ASUS ROG Crosshair VI Hero, AMD Ryzen 9 3900X, ASUS RTX 2060 Dual OC, 16GB G.Skill Flare X CL14 3200 MHz @3200 MHz, Arctic Freezer 240, Seasonic Prime Titanium 850W, Phanteks Eclipse P400S Glass, Samsung 960 Pro 512GB, Samsung 850 Pro 512GB, Seagate Ironwolf 4TB, ASUS PG278Q

Permalänk
Medlem
Skrivet av Aphex:

MSAA är inte riktig AA, du tänker på SSAA.

MSAA är ett fusk för att ge högre prestanda i utbyte mot mer artefakter.

Känns det igen?

Nej, det är inte fusk, googlar du ens innan du pratar goja?

Permalänk
Medlem
Skrivet av Slashgibber:

Nej, det är inte fusk, googlar du ens innan du pratar goja?

"MSAA works by taking multiple samples at the edges of geometry and then blending these samples."

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

"MSAA works by taking multiple samples at the edges of geometry and then blending these samples."

Ja, vad exakt i det är det som är fusk tycker du? Om något så är SSAA fusk, då det inte sysslar med AA, utan downsampling. Du får samma effekt genom att rendera ett spel i 4K på 1080P-monitor.

Permalänk
Medlem
Skrivet av Slashgibber:

Ja, vad exakt i det är det som är fusk tycker du? Om något så är SSAA fusk, då det inte sysslar med AA, utan downsampling. Du får samma effekt genom att rendera ett spel i 4K på 1080P-monitor.

Jag har inte sagt att det är fusk? Jag bara postade hur det fungerade 😊
Ssaa är mer fusk. Msaa är väl inte fläckfritt heller

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Lussarn:

Det här går åt båda hållen dock. Det finns dom som bestämmt sig för att den här kontakten kommer smälta och det finns inga variabler man som användare kan påverka för att det inte skall hända just mig.

Jag är av en annan åsikt. Kontakten är inte lika robust som gamle 3-4xPcie kontakter och man behöver vara försiktigare med den. Den kan smälta vid 600W, det vet vi, undisputed. Måste det hända, jag är inte lika säker på det. Det finns variabler att påverka som användare. Se till att ha bra luftflöde, överstressa inte kabeln, byt ut kabeln om den ser eller känns utsliten t.ex. Jayz2c gjorde sin undersökning att alla kablar kanske inte är så jäkla bra byggda, kanske Corsair byter ut sin nu. Det är bra grejer.

Det är viktigt att sådan här information kommer fram också. Precis lika viktigt som att sitta och klaga på Nvidia på ett svenskt internetforum för det är saker du själv kan påverka. Att få Nvidia att ändra sig det är ett större mål och inget vi kan påverka här och nu, och inget som påverkar din faktiska setup för tillfället.

Ja, det var ju lite off topic för själva tråden detta. Men allt det klagande man ser på precis allt Nvidia gör, det är så innibomben tröttsamt att läsa sida upp och sida ner. PhysX är skit det måste försvinna (Nvidia suger), Nvida tar bort Physx (Nvidia suger). Det är ett no win scenario för många har bestämmt sig att ALLT Nvidia gör är skit. Det är likadant i den här tråden.

Nvidia kom inte på uppskallning, vi har haft uppskalning i våra monitorer som suger sen dom blev platta. Konsollerna har kört uppskalning sen jag vet inte när. Nu råkar Nvidia ha tagit tag i problemet på ett sätt som objektivt är bra (bäst), och då blev DLSS givetvis skit det också.

Blir du lite ledsen när någon säger någonting om Nvidia som du upplever som negativt? Isf är du lite av en fanboy som måste motivera ditt köp av ett grafikkort som kostar sjukt mycket mer än det behöver,..just för att fanboys betalar vad som helst för att få ett Nvidia kort.

Permalänk
Medlem
Skrivet av xc:

Blir du lite ledsen när någon säger någonting om Nvidia som du upplever som negativt? Isf är du lite av en fanboy som måste motivera ditt köp av ett grafikkort som kostar sjukt mycket mer än det behöver,..just för att fanboys betalar vad som helst för att få ett Nvidia kort.

Öh, det går knappt att ha en diskuission om någonting Nvidia gör längre, för folk som är helt ointresserade av teknologierna lägger sig i och förstör. Det verkar vara väldigt viktigt att i samtliga trådar om Nvidia förklara varför just dom inte gillar vad det nu skall diskuteras. Och så diskuteras det istället.

Det tycker jag är lite synd.

För övrigt är fanboys folk som bryr sig om hur ANDRA spenderar sina pengar, det finns det gott om på sweclockers. Men jag är inte en av dom.

Visa signatur

- 5090

Permalänk
Medlem
Skrivet av Gtoxed:

Jahapp, får väl ta en screenshot på inställningen då senare, för jag har funktion att kunna välja mellan balanced, performance och quality

Många spel har uppskalnings tekniker och de har funnits långt före DLSS, oavsett vad så har spelet inte DLSS, du kan superlätt verifiera detta genom att bara söka efter filer i spelets mapp, du lär inte hitta nvngx_dlss.dll för spelet.

Visa signatur

Speldator: Ryzen 7800X3D, 64GB DDR5, RTX 5090
Server: i7-8700k, 32GB DDR4, RTX2080
Steam deck, Rog Ally + de fiesta konsoler.

Permalänk
Skrivet av Varg:

DLSS och RT är det första jag stänger av i spel. Duger inte råprestandan i kortet kan spelet kvitta.

Förlegat synsätt.
R&D team skapar fantastisk teknologi också ska folk gubbsura över det.

Råprestandans tid är förbl.
Ungefär som att segla världen över med råvaror ersätts av containerskepp med dieselmotorer och kanske el och sedan fusion i framtiden.

Ska du så gnälla över att den "råa prestandan" d.v.s vinden är det enda rätta.

Visa signatur

i7-10700KF | RTX 3060 Ti Phoenix | 32 GB HyperX 3200Mhz

Permalänk
Medlem

Konstigt att de e 92 procent? Nä inte ett dugg.. ända sättet o få ut prestanda ur korten idag

Permalänk
Medlem
Skrivet av kallehamez:

Förlegat synsätt.
R&D team skapar fantastisk teknologi också ska folk gubbsura över det.

Råprestandans tid är förbl.
Ungefär som att segla världen över med råvaror ersätts av containerskepp med dieselmotorer och kanske el och sedan fusion i framtiden.

Ska du så gnälla över att den "råa prestandan" d.v.s vinden är det enda rätta.

Man kan hålla på hur långt bak som helst med det här... sätta mjukvarurenderad Quake som standard och hävda att TNT2, Voodoo och alla dedikerade GPUer är fusk och äkta pixlar bara behandlas på CPUn.

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem
Skrivet av RHWarrior:

Man kan hålla på hur långt bak som helst med det här... sätta mjukvarurenderad Quake som standard och hävda att TNT2, Voodoo och alla dedikerade GPUer är fusk och äkta pixlar bara behandlas på CPUn.

Från början med 3dfx så hade man gpu:n kvar, satt en vga-kabel mellan korten och sen en vga-kabel till skärmen. Så nog var det fuskpixlar allt. Usch o Fy, vart har världen tagit vägen? Jag kommer ihåg på min tid…

Sen VAR Quake toppen av spelutveckling, det har rent krasst enbart gått utför sen dess! Med vänlig hälsning, Surgubbe!

Visa signatur

Amd o Apple

Permalänk
Medlem

Har 4070 ti och ALDRIG använt dlss , får bra fps och bra kvalite . Varför skulle man använda man skiten med ännu bättre gpu ?

Permalänk
Medlem
Skrivet av aki04:

Har 4070 ti och ALDRIG använt dlss , får bra fps och bra kvalite . Varför skulle man använda man skiten med ännu bättre gpu ?

Läs på lite om DLSS 4.

Permalänk
Hedersmedlem
Skrivet av aki04:

Har 4070 ti och ALDRIG använt dlss , får bra fps och bra kvalite . Varför skulle man använda man skiten med ännu bättre gpu ?

Du kör inte så krävande spel isåfall. Men som tidigare nämnt så kan DLSS ge bättre kvalitet i vissa spel, och då är det ju dumt att tacka nej till bättre prestanda och bättre bild.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Du kör inte så krävande spel isåfall. Men som tidigare nämnt så kan DLSS ge bättre kvalitet i vissa spel, och då är det ju dumt att tacka nej till bättre prestanda och bättre bild.

Får 144 fps i nästan alla spel jag kör , hur många fler fpa kräver man ? Tänler skärmen är avgörande eller ?

Permalänk
Hedersmedlem
Skrivet av aki04:

Får 144 fps i nästan alla spel jag kör , hur många fler fpa kräver man ? Tänler skärmen är avgörande eller ?

Jo, då är de inte så krävande.
Upplösningen avgör också, jo, men i rejält krävande spel (som 3 spel i SweCs RT-testsvit) utan DLSS orkar 4070 Ti ändå inte ens 40 fps i 1080p. Högre upplösning blir ju ännu värre.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

I vissa spel så förbättras bild samt fixar anti aliasing eller flickering, så den är inte helt värdelös.

Visa signatur

PC1: O11 Vision |ROG Z790-F Wi-Fi |14700KF |RTX4090 Aorus Master
PC2: O11 Air Mini |H80i |i7 8770K 5GHz |RTX3070
PC3: HYTE Y40 |i5 10400f |GTX3090
VR: Valve Index |Oculus Quest 3
Konsol Setup: LG OLED77CX |Xbox Series X |Playstation 5

Permalänk
Medlem
Skrivet av Mindfighter:

Från början med 3dfx så hade man gpu:n kvar, satt en vga-kabel mellan korten och sen en vga-kabel till skärmen. Så nog var det fuskpixlar allt. Usch o Fy, vart har världen tagit vägen? Jag kommer ihåg på min tid…

Sen VAR Quake toppen av spelutveckling, det har rent krasst enbart gått utför sen dess! Med vänlig hälsning, Surgubbe!

Det är ju helt horribelt... en extra A/D-omvandling, och sen tillbaka! Snacka om kvalitetsförlust.
För att inte tala om att DVI/HDMI inte ens fanns så det gick analogt till skärmen, bara de högre makterna vet hur mycket signalförlust man fick där.

Men på något mirakulöst sätt så överlevde vi och frodades ändå, trots den grova skändning som våra ögon fick utsättas för.

Vi är verkligen hjältar!

Visa signatur

|[●▪▪●]| #Monster Battle Station(tm)#: Ryzen 3700X >-< GB-X570-AE >-< 32GB RAM >-< RTX 4070S >-< Crucial 2TB SSD |[●▪▪●]|

Permalänk
Medlem
Skrivet av Thomas:

Du kör inte så krävande spel isåfall. Men som tidigare nämnt så kan DLSS ge bättre kvalitet i vissa spel, och då är det ju dumt att tacka nej till bättre prestanda och bättre bild.

Skrivet av aki04:

Får 144 fps i nästan alla spel jag kör , hur många fler fpa kräver man ? Tänler skärmen är avgörande eller ?

Gör mer skillnad ju högre upplösning man kör på skärmen också. Inte säkert DLSS Performance på en 1080p panel ser mycket bättre ut än native eller TAA. Det klår dock andra AA tekniker som FXAA med råge.

Sen behövs ju inte prestandavinsten lika mycket om man kör 1080p så inte lika solklart use case, om du inte har en low tier gpu och behöver få högre fps utan kvalitetsförlust (kör isf DLSS Quality i 1080p och rapportera tillbaka)

Visa signatur

MSI B650 Tomahawk / AMD 7800X3D / 2x16 GB Kingston Fury 6000Mhz DDR5 / ASUS TUF RTX5070ti 16GB / Corsair RM850x Shift / Samsung G80SD 4K 240Hz OLED