Snabbkoll: Vilken typ av grafikprestanda är viktigast för dig?

Permalänk
Medlem
Skrivet av dlq84:

Fast då är ju prestandan viktig. Utan prestanda kommer inte mellanklassen kunna köra RT...

Någon av oss har tolkat frågan fel, jag ser det som läsare av tester av grafikkort idag, vad prioriterar jag högst rt eller raster prestanda?

Och jag anser att rt prestanda i ett test av ett grafikkort idag är helt ointressant då billigare kort inte klarar av att utnyttja rt utan att fuska med hjälp av dlss och liknande.

Visa signatur

here we go!

Permalänk
Medlem

För mig är båda lika viktiga. Stor chans att nya stora AAA grafiktunga spel får stöd för DLSS och Frame Generation. Det ger en riktigt bra boost i flytet med en extremt minimal försämring i bildkvalité. Ibland kan det till och med se bättre ut?
Men för spel som inte har detta så vill jag ju ha så bra rasteriseringsprestanda som möjligt.

Just för RayTracing så tycker jag det fortfarande är för tidigt. Kräver betydligt snabbare grafikkort än det vi har idag.
Cyberpunk 2077 och några få andra spel ser riktigt bra ut med full RT. Men det mer än halverar fps'n.
Men det är framtiden och det måste börja någonstans.

Visa signatur

hellre mer fps på skärmen än pengar på banken

Permalänk
Glädjespridare

Röstade på rastrering, enda alternativet i närheten av min högsta prioritet: GFLOPS/Watt/krona.

Alltså mest energieffektiva beräkningar per svensk krona (inte alla av oss som gejmar primärt (eller bryter kryptovalutor)).

Permalänk
Medlem

Sänker inställningarna i spel för jag uppskattar stabila 144 fps i 1440p över ögongodis så RT brukar vara avstängt.

Kör det i WoW Classic, ger väl lite med djup till skuggorna.

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Moderator
Moderator

*Tråd rensad enl § 1 och svar som följt.*

Vi klarar oss väldigt bra utan påhopp och insinuationer. Det är OK att ha olika åsikter i frågan.

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Medlem

Rastrerad prestanda utan tvekan, 99% av tid jag spelar så är det det som kommer göra skillnad liksom. Jag skulle tro att innan RT är utvecklat nog att man inte offrar mycket så kommer skillnaderna mellan tillverkarna ändå ha hunnit bli rätt minimala.

Så att oroa sig för RT-prestanda nu vid köp känns mest som att släppa in PR-skit i huvudet.

Men mer generaliserat ska även nämnas: Prio är bättre rastreringsprestanda/krona när man köper nytt.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Röstade på rastrerad, men jag uppskattar raytracing när det görs på ett bra sätt. Men tyvärr så kostar det väldigt mycket i performance, speciellt om man har ett AMD kort i 6000-serien, som jag har. Det blir mycket kompromisser om man vill nå minst 60fps i 1440p. Oftast så väljer jag hellre att brassa på med dom andra inställningarna och kör native 1440p för att spelet ska se så bra ut som möjligt. NVidia ligger ju betydligt bättre till på raytracing sidan, men då får man också vara beredd att betala ett högre pris, vilket jag inte var när jag byggde min senaste burk (och jag är nog inte det nu heller).

Permalänk
Medlem

Svårt val för mig. Jag känner att inte ens de absolut snabbaste korten har tillräcklig prestanda för RT idag. Inte ens 4090 klarar spelbar FPS i högre upplösningar utan att "fuska" med uppskalningsteknik, speciellt med "riktig" RT (path tracing). De lägre korten behöver dessa fusk även vid 1440p och 1080p. Så det är helt klart inom det området prestandan behöver förbättras radikalt. Om nästa generation dubblerar prestandan över 4090, och generationen efter dubblerar den igen kan det börja bli intressant.

Samtidigt gör RT sällan någon stor skillnad för grafiken. Man måste stanna upp och verkligen titta för att se skillnaden, och då är det ändå i spel som i princip existerar som reklampelare för Nvidia RTX. Hade utvecklarna skippat RT och lagt resurserna på att få det lika snyggt med vanligt rastrering hade RT kanske varit helt onödigt.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem

Spelar inget som har stöd för RT, så jag klarar mig utan det.

Permalänk
Medlem

För mig vinner rasteriseringsprestanda utan tvekan. VR är där jag främst har saknat prestanda, inte nödvändigtvis i vanliga spel. Och även när jag aktiverar RT och uppskattar renderingsfördelarna så är det väldigt sällan värt prestandaförlusten. I ljuset av detta är det provocerande när AMD och Nvidia släpper 4000-5000kr "midrange"-kort som är s.k. "designade för 1080p" med PCIe 8x. När korten är mer än tillräckliga (rent teoretiskt) att köra väldigt höga upplösningar.

I dagsläget vill jag personligen köra 2560x2560 per öga (upp till 3320x3320) i VR, renderandes två miljöer på samma gång, totalt 5120x2560 (eller som värst 6640x3320). Jag har ett PCIe 3.0 system och när jag körde ett 6600XT så föll prestandan lavinartat med upplösning vilket gjorde att jag senare uppgraderade till ett 6800. Även om prestandan givetvis faller med ökad upplösning, så är det inte alls i samma grad som med dessa PCIe 8x-kort som AMD och Nvidia verkar tycka vara vettigt att släppa idag.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Medlem

Med tanke på att den överväldigande majoriteten av spelgrafik fortfarande är rastererad så är det helt klart den prestandan som är viktigast för min del. Raytracing är häftigt och kommer så småningom att ta över, men när det händer kommer troligtvis inget nuvarande grafikkort vara tillräckligt kraftfullt för att driva de spelen på ett bra sätt, så det känns lite "meh" att köpa ett grafikkort för raytracing-prestanda i spel som det ser ut nu.

Visa signatur

Ryzen 7 7800X3D | MSI MAG B650 Tomahawk WiFi | G.Skill Trident Z5 Neo 2x16GB 6000MHz CL30 | Arctic Liquid Freezer II 360 | Sapphire Nitro+ 7900 XTX | WD Black SN850 2TB + Samsung 860 EVO 2x2TB | Corsair AX1000

Permalänk
Medlem

Raytracing kommer inte ersätta rastrering någon gång snart, däremot kommer hårdvarustöd för AI-tekniker att få allt större betydelse, vilket Intel fattade när de startade upp med Arc. Här är två YT-klipp som demystifierar Nvidia-varumärkena som annars har en tendens att göra diskussionen mer svårbegriplig, och kanske kan bidra till att ge en förståelse för att det inte är en "Spy vs Spy"-situation som kommer lösas av stop-gap-lösningar med mjukvara i brist på hårdvarustöd.

Digital Foundry förklarar och visar hur path tracing fungerar på en grundläggande nivå för att "fuska ihop" en raytracad förlaga av spelvärlden som sedan kan textureras med förbättrat resultat i jämförelse med traditionella lightmaps (som Quake var först med).

Bra att ha sett ovanstående eftersom de återkopplar till hur Quake 2 RTX fungerar när de förklarar CP2077. Ett av problemen är att prestandan inte är i närheten av att räcka till att trejjsa hur många rejjs som helst, utan där måste man förlita sig på AI-tekniker för att t.ex. få till ett bra resultat med flera ljuskällor i realtid.

Det är ju alltid svårt att veta vad framtiden bär med sig, men i september 2018 när GeForce 20-serien kom ut så snurrades i princip klockan tillbaka till oktober 1999 när GeForce 256 släpptes med hårdvarustöd för Hardware Transform & Lightning (T&L)/Transform, Clipping, Lighting (TCL).

Dåtidens ATI gjorde ett lappkast och bytte spår för att implementera hårdvarustöd för samma teknik något år senare och släppte första Radeon-kortet, och hade därefter en period där man slog Nvidia på fingrarna gång efter annan. Sen köpte AMD upp ATI och startade den tynande tillvaro Radeon levt i sedan dess... allt beroende på fulspel från Nvidia, inte att AMD satsat fel, naturligtvis.

3dfx försökte leva vidare på Glide och utan hårdvarustöd för T&L/TCL på Voodoo3, och även om det inte specifikt var det som sänkte 3dfx slutgiltigt så hjälpte det ju knappast att konkurrenterna körde om inom loppet av en enda generation. 3dfx hann aldrig få ut designen som rättade till bristerna innan pengarna tog slut, och där är ju inte AMD idag lyckligtvis eftersom de har lyckats inom andra områden.

Historien tycks upprepa sig, men jag hoppas att kommande Radeon-generation rättar till bristerna på hårdvarustöd de dras med idag. AMD behöver en Zen-motsvarighet för GPU.

Permalänk
Medlem
Skrivet av superapan:

Jag gillar inte Nvidia. Mest för att jag var en 3dfx-fanboy när det begav sig och gnisslade tänder när Nvidia köpte upp och lade ner.

Jo det tyckte jag också i början av 2000-talet, men sen blev det ju uppenbart att 3dfx gick under för att de var massiva och giriga assholes genom att göra varenda partnertillverkare arbetslösa för att kunna sluka en större del av kakan, samtidigt som man struntade i att ge kunderna den bästa teknologin och förväntade sig att kunna leva vidare på sin dominans. STB-korten hade dessutom vansinnigt dålig kvalitet, så inte ens där brydde de sig om kunderna.

Nvidia köpte de teknologier som var värda att bygga vidare på och tryggade dessutom anställningarna för majoriteten av alla forna 3dfx-anställda, så det som "lades ner" var i praktiken en horribel administration under varumärket 3dfx.

Permalänk
Medlem
Skrivet av Sveklockarn:

Dåtidens ATI gjorde ett lappkast och bytte spår för att implementera hårdvarustöd för samma teknik något år senare och släppte första Radeon-kortet, och hade därefter en period där man slog Nvidia på fingrarna gång efter annan. Sen köpte AMD upp ATI och startade den tynande tillvaro Radeon levt i sedan dess... allt beroende på fulspel från Nvidia, inte att AMD satsat fel, naturligtvis.

Jag skulle väl säga det som så att ATi var väldigt jämna och nästan alltid levererade något som var bra men inte fantastiskt medan Nvidia tog ut svängarna och var ojämna. När Nvidia gjorde bort sig (FX 5000-generationen, Fermi 1.0) så kunde AMD slå dem på fingrarna.

Hela bytet till Radeon kom sig av att ATi köpte upp ett företag vid namn ArtX. ArtX hade fått kontraktet för att tillverka GPUer till vilken Nintendo-konsol det kan ha varit som var på tapeten då (Gamecube, kanske?) och ATI ville ha den marknaden. När de såg vad ArtX hade på gång, tog de deras grejer som bas för en ny linje grafikkort för PC, med fokus på OEMer - ATi hade alltid bra relationer med flera OEMer. Dessa nya kort hette Radeon istället för Rage för att markera att det var något nytt.

Problemen efter AMD-köpet kom sig av att AMD betalade kontant i ett läge när ATi var högt värderat, vilket gjorde att de fick låna upp en massa pengar för att kunna hantera det. Eftersom en chip-tillverkare alltid behöver låna massor för att bygga nya fabriker, blev det ett problem med hög belåningsgrad och därmed höga räntor. AMD fick snåla där de kunde, vilket gick ut över allt. Man kom efter med processerna, man tog ett stort steg med första GCN men gick sedan över till att bara polera på den när Nvidia gjorde en hel ny generation vartannat år, och man testade inte så mycket som man borde med nya CPU-designer (Phenom och Bulldozer). Genom att göra sig av med fabrikerna grävde AMD sig ur det hålet, men även nu hinner de inte riktigt med att satsa på allt samtidigt. Ryzen är ett fokus och det har gått bra, men grafiken är i princip en förbättring åt gången. RDNA 1 är egentligen bara en stor och en liten förändring av GCN5/Vega (samt ny process, icke att förglömma). RDNA 2 städar upp lite mer, men RDNA 3 är nästan bara chiplet-lösningen och en ny process. Allt annat är småpetande med cache och PRF.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Jag skulle väl säga det som så att ATi var väldigt jämna och nästan alltid levererade något som var bra men inte fantastiskt medan Nvidia tog ut svängarna och var ojämna. När Nvidia gjorde bort sig (FX 5000-generationen, Fermi 1.0) så kunde AMD slå dem på fingrarna.

Ja mina minnen är lite diffusa men jag har ett kom-ihåg av att jag köpte ett antal Nvidia-kort som snabbt blev slagna av en Radeon-motsvarighet, särskilt då FX-serien, fram till GeForce 8-serien. Minns att TES: Oblivion gick som rena drömmen på GeForce 8800 GTS (eller om det var GT) i alla fall, det var nog den första upplevelsen av att 'nu jävlar är framtidens grafik här'. Gräs i 3D liksom!

Skrivet av mpat:

Hela bytet till Radeon kom sig av att ATi köpte upp ett företag vid namn ArtX. ArtX hade fått kontraktet för att tillverka GPUer till vilken Nintendo-konsol det kan ha varit som var på tapeten då (Gamecube, kanske?) och ATI ville ha den marknaden. När de såg vad ArtX hade på gång, tog de deras grejer som bas för en ny linje grafikkort för PC, med fokus på OEMer - ATi hade alltid bra relationer med flera OEMer. Dessa nya kort hette Radeon istället för Rage för att markera att det var något nytt.

Rage-korten var något man fnös åt när man hade 3dfx åtminstone.

Fnysningen mildrades ju betydligt post-Radeon.

Skrivet av mpat:

Problemen efter AMD-köpet kom sig av att AMD betalade kontant i ett läge när ATi var högt värderat, vilket gjorde att de fick låna upp en massa pengar för att kunna hantera det. Eftersom en chip-tillverkare alltid behöver låna massor för att bygga nya fabriker, blev det ett problem med hög belåningsgrad och därmed höga räntor. AMD fick snåla där de kunde, vilket gick ut över allt. Man kom efter med processerna, man tog ett stort steg med första GCN men gick sedan över till att bara polera på den när Nvidia gjorde en hel ny generation vartannat år, och man testade inte så mycket som man borde med nya CPU-designer (Phenom och Bulldozer). Genom att göra sig av med fabrikerna grävde AMD sig ur det hålet, men även nu hinner de inte riktigt med att satsa på allt samtidigt. Ryzen är ett fokus och det har gått bra, men grafiken är i princip en förbättring åt gången. RDNA 1 är egentligen bara en stor och en liten förändring av GCN5/Vega (samt ny process, icke att förglömma). RDNA 2 städar upp lite mer, men RDNA 3 är nästan bara chiplet-lösningen och en ny process. Allt annat är småpetande med cache och PRF.

Jo, de ekonomiska följderna av ATI-uppköpet och hela Global Foundries-debaklet (som väl såldes för exakt $1 i slutänden) minskade såklart vilka resurser som fanns tillgängliga till allt annat. Det är imponerande att de lyckades hålla sig såpass relevanta som de gjorde under de cirka tiotalet "dåliga åren". Sen finns det ett kulturellt fenomen där produkterna hypats upp av AMD-fans till nivåer som varit helt omöjliga att uppfylla i verkligheten, vilket lett till effekten att besvikna s.k. fans sedan inte köpt produkterna när de väl kommit ut på marknaden.

I många fall så låg ju dessutom inte AMD så långt efter konkurrenterna att det hade varit ett stort handikapp att stödja AMD ekonomiskt genom att köpa en marginellt sämre produkt, och medierna har nog varit ganska skoninglösa när produkterna bara nästan nått till Intel/Nvidia-nivå ifråga om prestanda istället för att se till förutsättningarna att ta fram produkterna. Nu är det inte en ursäkt för att släppa sämre produkter utan bara ett krasst konstaterande att pengar behövs för att kunna utveckla produkter så att man kan ligga i framkant, och att alla pengar kommer från kunderna.

Nu är jag inte lika stor Nvidiot som jag har varit, men tanken att stödköpa Nvidia drev ju de fortsatta inköpen efter FX-serien för min del. Sen var det bara att Nvidia råkade bli bättre och att det inte fanns någon anledning att kolla efter alternativ, samt att jag bytte attityd till hur mycket som var rimligt att lägga i en datorbudget någon gång runt 2012 och att det därefter inte blev ett problem att grafikkort började kosta lika mycket som resten av datorn.

Permalänk
Medlem
Skrivet av Sveklockarn:

Ja mina minnen är lite diffusa men jag har ett kom-ihåg av att jag köpte ett antal Nvidia-kort som snabbt blev slagna av en Radeon-motsvarighet, särskilt då FX-serien, fram till GeForce 8-serien. Minns att TES: Oblivion gick som rena drömmen på GeForce 8800 GTS (eller om det var GT) i alla fall, det var nog den första upplevelsen av att 'nu jävlar är framtidens grafik här'. Gräs i 3D liksom!
Rage-korten var något man fnös åt när man hade 3dfx åtminstone.

Köpte ett 6600GT för oblivions lansering, tror det annars var 7800GTX som toppade då, 8800 kom väl lite senare; Hade 2 st 8800GTS 320, och sedan 2 st 8800GT 512.

Nyligen rensat ur lite gamla datorer från min mors hus och utöver en gammal Athlon (före 64) med ett Geforce 256 jag räddade tidigare hittade jag idag en IBM Personal System 2 Model 50Z inklusive model M keyboard, en Wang PC 250/16 och en mystisk sådan där station där du med en nyckel på frontpanelen kunde klocka processorn från 67 till 80Mhz eller vad det nu var. Har bara vaga barnminnen från det mesta av det men Model M är ju aktuellt även idag. Blir att slänga upp på tradera och se om någon är intresserad.

Mitt "framtidens grafik" moment var nog Rune, vet inte hur många hundratals timmar jag spenderade senare i Rune: HOV men hade en tjock bunt papper utskrivna och pärmade med olika unreal-engine kommandon för att leka runt med.
Tror det var där min hjärna blev kalibrerad till höga FPS med hög uppdateringsfrekvens (CRT med 85hz såklart) och just alla unreal-engine spel som på något sätt återgav den trediomensionella känslan så mycket bättre än något annat.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Köpte ett 6600GT för oblivions lansering, tror det annars var 7800GTX som toppade då, 8800 kom väl lite senare; Hade 2 st 8800GTS 320, och sedan 2 st 8800GT 512.

Jag var ganska sen på TES: Oblivion ska tilläggas, hade bara kört demoversionen (?) av Daggerfall innan (som kraschade konstant) och hoppade över Morrowind då den visuella stilen inte tilltalade mig tidigt 2000-tal.

Skrivet av Shiprat:

Nyligen rensat ur lite gamla datorer från min mors hus och utöver en gammal Athlon (före 64) med ett Geforce 256 jag räddade tidigare hittade jag idag en IBM Personal System 2 Model 50Z inklusive model M keyboard, en Wang PC 250/16 och en mystisk sådan där station där du med en nyckel på frontpanelen kunde klocka processorn från 67 till 80Mhz eller vad det nu var. Har bara vaga barnminnen från det mesta av det men Model M är ju aktuellt även idag. Blir att slänga upp på tradera och se om någon är intresserad.

Jag tror att ganska mycket av 2000-talshårdvaran skänktes bort till behövande i bekantskapskretsen så jag har tyvärr inte kvar mycket från den tiden. Jag vet att jag har två Voodoo2 12 MB sparade (inklusive SLI-kabeln!), och kanske har sparat ett GeForce 256 samt ett Voodoo3. I övrigt är det bara lite äldre retro-grejer typ IBM PS/2 och ett par DEC VAX:ar.

Skrivet av Shiprat:

Mitt "framtidens grafik" moment var nog Rune, vet inte hur många hundratals timmar jag spenderade senare i Rune: HOV men hade en tjock bunt papper utskrivna och pärmade med olika unreal-engine kommandon för att leka runt med.
Tror det var där min hjärna blev kalibrerad till höga FPS med hög uppdateringsfrekvens (CRT med 85hz såklart) och just alla unreal-engine spel som på något sätt återgav den trediomensionella känslan så mycket bättre än något annat.

Jag körde nog en hel del Quake 2/3 ungefär samtidigt. Quake 2 blev startskottet för skärm med högre uppdateringsfrekvens än 60 Hz och skaffade en ADI Microscan GT56 17" som gick att skrämma upp en bra bit över 100 Hz i någon tillämplig Quake-upplösning. Var tvungen att rota fram Dustin-kvittot för att komma ihåg modellnamnet, såg då även att skärmen kostade 3687,50 kr medan mitt Voodoo3 bara kostade 1687,50 kr. Klassiska Dustin-priser inklusive moms!

Permalänk
Medlem
Skrivet av Sveklockarn:

Raytracing kommer inte ersätta rastrering någon gång snart [...]

Vi lär se allt mer raytracing fram till nästa konsolgeneration, varefter rastrering kommer dö ut. Innan konsolerna får bättre hårdvara kommer dock rastrering leva vidare, medan vi på PC-sidan får allt bättre hårdvara och mer raytracing.

Permalänk
Medlem

Rastrering är det enda som betyder något idag. Hårdvara som kan göra ray tracing på ett relevant och gimmickfritt sätt är fortfarande ett par generationer bort.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem

När jag läser många av inläggen får jag en känsla av att många inte ser storheten i RayTracing just av den anledningen att de inte har tillräckligt kraftfullt grafikkort för att nyttja det med flyt, eller anser att man inte ska behöva använda uppskalningsteknik av någon anledning för att nå spelbar FPS.

Jag ställer då frågan vad felet är med uppskalningsteknik? Själv har jag använt DLSS och använder fortfarande tillsammans med en UW-skärm på 3440*1440 och ser ingen försämring i bilden på DLSS kvalitetsläget jämfört med DLSS avstängt.
Det känns som att det endast är något man skyller på för att man inte har hårdvaran att driva RayTracing över 60 fps som går alldeles utmärkt tillsammans med DLSS 3.0 och RTX 4k-seriens toppkort.

Jag är bara genuint intresserad hur folk tänker här eftersom jag själv anser att DLSS 3.0 med frame generation är det bästa som hänt grafikkortsbranchen på evigheter eftersom det just gör att du kan lira samtliga spel inkluderat Cyberpunk med Path Tracing i över 60 fps utan problem.
Det man vill uppnå är väl just prestandan med allt ögongodis? Spelar roll att det är någon uppskalningsteknik som hjälper till tänker jag. Det är ju inget som gör det hela sämre om uppskalningstekniken är bra utvecklad och implementerad såsom DLSS är idag?

Permalänk
Medlem
Skrivet av wibbe44:

När jag läser många av inläggen får jag en känsla av att många inte ser storheten i RayTracing just av den anledningen att de inte har tillräckligt kraftfullt grafikkort för att nyttja det med flyt, eller anser att man inte ska behöva använda uppskalningsteknik av någon anledning för att nå spelbar FPS.

Jag ställer då frågan vad felet är med uppskalningsteknik? Själv har jag använt DLSS och använder fortfarande tillsammans med en UW-skärm på 3440*1440 och ser ingen försämring i bilden på DLSS kvalitetsläget jämfört med DLSS avstängt.
Det känns som att det endast är något man skyller på för att man inte har hårdvaran att driva RayTracing över 60 fps som går alldeles utmärkt tillsammans med DLSS 3.0 och RTX 4k-seriens toppkort.

Jag är bara genuint intresserad hur folk tänker här eftersom jag själv anser att DLSS 3.0 med frame generation är det bästa som hänt grafikkortsbranchen på evigheter eftersom det just gör att du kan lira samtliga spel inkluderat Cyberpunk med Path Tracing i över 60 fps utan problem.
Det man vill uppnå är väl just prestandan med allt ögongodis? Spelar roll att det är någon uppskalningsteknik som hjälper till tänker jag. Det är ju inget som gör det hela sämre om uppskalningstekniken är bra utvecklad och implementerad såsom DLSS är idag?

Jag kan svara eftersom jag klankat ner på DLSS rätt mycket.

Det jag hela tiden har vänt mig emot är att ta synliga artefakter i bilden för högre prestanda. Nu har jag bara testat DLSS2 eftersom jag bara har ett 3080, men implementationerna jag råkat på har verkligen inte gjort tekniken rättvisa åtminstone. De här fjamspellarna som skriver att de "iNtE ViLL hA FeJkAdE fRaMeS" kan man naturligtvis bortse ifrån som hälften troll/okunniga, för majoriteten kommer bry sig om det visuella resultatet i slutänden. Utan uppenbart flimmer eller artefakter så har jag inga problem med DLSS.

Jag rekommenderar att kolla på Digital Foundrys videoklipp som jag länkade innan, de använder Cyberpunk 2077 för att visa på olika tekniska skillnader och är alltså inget som handlar om CP2077 som spel:

Just detta med att RT-prestandan, eller kanske snarare RTX-prestandan (eftersom det inte bara är raytracing som blivit bättre) har ökat fyra gånger på fyra år säger vartåt vi är på väg, och där ligger också nyckeln till att bli av med artefakter som de visar icke-CP2077-exempel på i samma video. Det handlar om att tiden för att rendera scenen blir så mycket kortare att man hinner göra den med allt bättre kvalitet OCH högre framerate. Detta innebär också att mycket av problemen med artefakter kommer att försvinna bara av att hårdvaran blir snabbare och kan jobba med samma problem en längre tid.

Den ger också en insikt i att det Nvidia egentligen främst gör är att ta fram hårdvarustöd för att utföra vissa matematiska beräkningar som är lämpade för raytracing. Jag upplever att folk här på forumet tror att Nvidias varumärken är samma sak som teknologin väldigt ofta, och att det nästan blivit en sport att vara emot Nvidia-teknologier, vilket blir lika absurt som att vara emot matematik för att man ogillar Microsoft Calculator. Det är alltså fullt möjligt att bygga hårdvara som crunchar samma numbers utan någon hjälp från Nvidia, och det är ju där skon klämmer hos AMD i realiteten idag.

Permalänk
Medlem
Skrivet av wibbe44:

När jag läser många av inläggen får jag en känsla av att många inte ser storheten i RayTracing just av den anledningen att de inte har tillräckligt kraftfullt grafikkort för att nyttja det med flyt, eller anser att man inte ska behöva använda uppskalningsteknik av någon anledning för att nå spelbar FPS.

Jag ställer då frågan vad felet är med uppskalningsteknik? Själv har jag använt DLSS och använder fortfarande tillsammans med en UW-skärm på 3440*1440 och ser ingen försämring i bilden på DLSS kvalitetsläget jämfört med DLSS avstängt.
Det känns som att det endast är något man skyller på för att man inte har hårdvaran att driva RayTracing över 60 fps som går alldeles utmärkt tillsammans med DLSS 3.0 och RTX 4k-seriens toppkort.

Jag är bara genuint intresserad hur folk tänker här eftersom jag själv anser att DLSS 3.0 med frame generation är det bästa som hänt grafikkortsbranchen på evigheter eftersom det just gör att du kan lira samtliga spel inkluderat Cyberpunk med Path Tracing i över 60 fps utan problem.
Det man vill uppnå är väl just prestandan med allt ögongodis? Spelar roll att det är någon uppskalningsteknik som hjälper till tänker jag. Det är ju inget som gör det hela sämre om uppskalningstekniken är bra utvecklad och implementerad såsom DLSS är idag?

På den här frågan finns det nog lika många svar som det finns deltagare på forumet, men som jag ser det så handlar det om att det är så satans dyrt samtidigt som det är i ett fåtal spel som det spelar någon roll alls. Det
billigaste kort som man kan köpa om man skall ha RT idag är väl en 4070, ungefär (3070 har utgått, x60 Ti är nog för svaga, 6950XT är nog en bättre affär på det hela taget men det är stort, törstigt och RT-prestandan är bara sådär). Jag betalade nästan precis hälften av vad en 4070 kostar för min 6700XT. RT är idag ögongodis, och jag har inte lust att betala för det ögongodiset i de få spel som stödjer det.

Uppskalning är bara bra. Jag ser det som ytterligare ett reglage att dra i när man vill ha upp prestandan. T.o.m FSR1 är bättre än att spela i fel upplösning för skärmen. Däremot ger jag ingenting alls för frame generation. Om priset för ögongodiset är sämre latency så aldrig. Om man spelar i 240Hz och behöver FG för att komma upp till det så fine, den latensen får man väl släppa, men om man har 30fps och vill upp till 60? Nej, aldrig.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av wibbe44:

När jag läser många av inläggen får jag en känsla av att många inte ser storheten i RayTracing just av den anledningen att de inte har tillräckligt kraftfullt grafikkort för att nyttja det med flyt, eller anser att man inte ska behöva använda uppskalningsteknik av någon anledning för att nå spelbar FPS.

Jag ställer då frågan vad felet är med uppskalningsteknik? Själv har jag använt DLSS och använder fortfarande tillsammans med en UW-skärm på 3440*1440 och ser ingen försämring i bilden på DLSS kvalitetsläget jämfört med DLSS avstängt.
Det känns som att det endast är något man skyller på för att man inte har hårdvaran att driva RayTracing över 60 fps som går alldeles utmärkt tillsammans med DLSS 3.0 och RTX 4k-seriens toppkort.

Jag är bara genuint intresserad hur folk tänker här eftersom jag själv anser att DLSS 3.0 med frame generation är det bästa som hänt grafikkortsbranchen på evigheter eftersom det just gör att du kan lira samtliga spel inkluderat Cyberpunk med Path Tracing i över 60 fps utan problem.
Det man vill uppnå är väl just prestandan med allt ögongodis? Spelar roll att det är någon uppskalningsteknik som hjälper till tänker jag. Det är ju inget som gör det hela sämre om uppskalningstekniken är bra utvecklad och implementerad såsom DLSS är idag?

För min del är det lite som att titta på AI-genererade bilder som befinner sig i uncanny valley, "något är fel med bilden men jag vet inte exakt vad". Senaste spelet jag spelade med DLSS+RT (RTX 3080 10GB) var Dying Light 2 och det slutade med att jag stängde av det för även om där inte var några stora artefakter så var där små grejer överallt i bilden som jag retade mig på. Jag hade en liknande upplevelse när jag spelade The Callisto Protocol med FSR (7900 XTX), återigen inga stora artefakter och flytet var suveränt även med ray tracing påslaget, men där var små grejer i bilden som är svåra att sätta fingret på exakt vad det är, men det retar mig. Så jag kan tänka mig att det är en del faktorer som att vi kanske är olika känsliga för de artefakter/bildbrus som uppskalning ofta medför som också spelar in.

Jag ser själv uppskalningsteknikerna som något bra i slutändan då det exempelvis är ett sätt att få grafikkort att räcka lite längre genom att slå på det när ett gammalt kort inte längre fixar att köra native. Men personligen föredrar jag native alla dagar i veckan då jag får känslan av uncanny valley med uppskalning påslaget.

Visa signatur

Ryzen 7 7800X3D | MSI MAG B650 Tomahawk WiFi | G.Skill Trident Z5 Neo 2x16GB 6000MHz CL30 | Arctic Liquid Freezer II 360 | Sapphire Nitro+ 7900 XTX | WD Black SN850 2TB + Samsung 860 EVO 2x2TB | Corsair AX1000

Permalänk
Medlem

raytracing får alla spel jag testat hittils att se sämre ut. Finns det en option att stänga av det så gör jag det. Samma med SSAO, motion blur (gör mig åksjuk) och particle shading.

Visa signatur

2x Xeon E5-2699 v4, 256gb Quad Channel RAM, 2x nVIDIA 980ti
----
AMD Ryzen 5950X, 128gb Dual Channel RAM, 2x AMD 6900XT
----
Massiv amiga och 3dfx-samling.