Skrivet av Don_Tomaso:
Håller inte helt med. Dagens prestandajämförelser har fastnat i det förflutna där man jämför två varianter ger exakt samma bildkvalitet. Ja, jämförelsen blir enkel om bilden är identisk, men blir det en relevant jämförelse?
Om nu DLSS är så pass bra att jag som spelare vill använda det, då blir den relevanta jämförelsen med AMD-kort och inställningar som renderar en ungefär likvärdig bild. Varför skulle jag bry mig om Nvidias nativerendering om DLSS är det jag använder?
Klart att det är svårt rangordna bildkvalitet på olika bilder, men det borde gå.
Du har en poäng. I synnerhet som i och med drivrutinsoptimeringar för spel, så kör inte grafikkorten nödvändigtvis samma kod även om de kör samma testslinga med samma settings.
Och de som faktiskt spelar på PC gör nog i de flesta fall så - justerar settings så att de får en optimal (enligt de egna preferenserna) kombination av prestanda och grafiskt finlir. Det är ju en stor del av poängen med att spela på PC! Vilket också gör att om man inte köper hårdvara för att det är kul att köpa hårdvara så har man ingen anledning att bry sig om ens ganska stora skillnader i benchmarkresultat - variansen i prestanda mellan olika spel och settings gör att man ofta kan vinna stort i prestanda genom att välja nästan likvärdiga inställningar. För när man faktiskt spelar spelet är små skillnader irrelevanta.
Å andra sidan är det också det som gör approachen svår att använda för benchmarking, även om HardOCP försökte.
1. Att prova ut visuellt närliggande resultat är både a) subjektivt och b) tar tid. Det är illa nog att bara göra det för två grafikkort och få spel (vilket var vad HOCP ofta gjorde), det vore helt hopplöst med större antal grafikkort och spel. Tänk Sweclockers, Techpowerup och liknande, den kombinatoriska explosionen blir mycket snabbt helt ohanterlig praktiskt.
2. Inte nog med att "visuellt ungefär likvärdig" är subjektivt, dessutom spelar det roll vad man siktar på. 1080p vid 144Hz? 4k vid 30 Hz? (Under en period höll jag på att bli galen av alla reviewsajter som testade med högsta inställningar och fps som kröp ner under 10fps för de lägre korten. Ingen skulle någonsin drömma om att spela med sådana settings så varför alls testa irrelevanta betingelser? För att inte tala om att man hade högsta inställningar och ansåg att 30fps i medelvärde var "playable". Jo, ja, men balansen mellan ögongodis och spelrespons är förfärlig när man nu faktiskt kan justera detta!)
Så trots att det inte nödvändigtvis är helt rättvist, och heller inte för PC-spelare särskilt relevant, så är modern standard att man använder spelets fasta inställningar om de finns, liksom oftast standardiserade testsekvenser. Det ger mer konsistenta och mindre relevanta resultat, vilket tyvärr förmodligen är den bästa kompromissen för både testare och läsare.
Vad jag tycker alla borde göra är att skruva på inställningarna och bygga en egen erfarenhetsbas! Och inte bara försöka hitta skillnaderna i en statisk bild, utan faktiskt spela spelet och jämföra spelupplevelsen. Vad spelar roll, vad spelar mindre roll, vad spelar i praktiken ingen roll? Beror det på typen av spel? Hur? I grund och botten är det också den erfarenheten som behövs för att kunna tolka benchmarkresultaten som testsajterna producerar. Men framför allt är det både kul och lärorikt, och skapar kanske en förståelse för att det finns utrymme för att människor kan prioritera annorlunda och ändå vara vettiga.
Utom att sub 30Hz är OK. Nån jävla ordning får det faktiskt vara.