Skrivet av Haibane:
Håller med, patetiskt att man 2018 kan betala 14 lax för ett kort som FORTFARANDE inte klarar 4k. Dippar under 60FPS är cancer för ögonen. Kan förvisso avhjälpas lite av en G-sync skärm men då talar vi ~35k totalt för en dräglig 4k uplevelse... Yay?
Detta inlägget är inte bara till dig utan ett allmänt svar också
Om grafikkorten som finns att köpa klarar 4k eller inte är upp till speltillverkarna.
Om de gör spelet maximalsnyggt i 1080 så att bästa kortet klarar köra det i 60 fps så kommer korten inte orka 4k i 60 fps.
Om de offrar detaljrikedom på modeller, texturer, skuggor osv så kan kortet klara att trycka ut fler pixlar och grejar då 4k i 60 fps.
Jag spelade Half-Life i 4k några år efter det kom ut med mitt då ganska häftiga grafikkort.
Skärmen klarade nog bara 75 Hz i 4k men nog fan låg fps över 60.
Lite häftigt men knappast snyggare än 1024x768.
Nu för tiden är t.ex. 800x600 inte en acceptabel upplösning så det finns ingen mening att maxa detaljrikedom i spel och optimera för den upplösningen. Detta skulle jag vilja påstå är främst för att man verkligen ser pixlarna på de displaystorlekarna vi har idag.
Alla streck som inte är raka blir sågtandade.
1920x1080 är fortfarande en väldigt accepterad upplösning och den används av en överväldigande majoritet.
Med enklare anti-aliasing som är väldigt ekonomiskt för korten (FXAA t.ex.) så är pixlarna, i min mening, inte något som man lägger märke till om man inte sitter och letar efter just pixlar - detta för skärmar på främst upp till 24" och på sin höjd 27" om man sitter vid skrivbordet.
Spelen är fortfarande inte i närheten av att vara så detaljrika att jag tycker att man behöver öka upplösningen för att få mest bang for the buck.
När spelen ser ut som filmer i 1920x1080 (argument kan göras för 2560x1440 för 27"+) - då tycker jag det är rimligt att gå på högre upplösningar.
Handen på hjärtat - En film i 1080 på en 24-27"-skärm, sitter man och stör sig på pixlarna det första man gör?
Jag har då aldrig hört någon som påpekat att Darth Vader har för pixlig hjälm.
Jag sitter 2 meter från min 55"-TV och känner inget som helst behov av mer än 1920x1080 för film/spel.
Om vi i stället börjar prata arbete och inte spel då kommer allt i ett helt annat läge.
Då köper jag 4k och till och med 8k beroende på skärmstorlek fullt ut.
Vad gäller prestandatesten av korten - om testerna inte är fake - så är de ganska ointressanta tycker jag eftersom en stor del av chipytan och utveckligen ligger inom raytracing och AI.
Det sas något i stil med att Real-Time Ray Tracing Demo kunde köras i 22 FPS med ett av de nya korten och att samma demo gick i 3 fps med 1080 Ti.
Det är en intressant jämförelse. Ska man då säga att de nya korten är 30% bättre enligt test i äldre spel eller ska man säga att de är över 700% bättre?
Om man bara är ute efter prestanda i äldre spel, ja då är det inte ett kort som lägger en stor del av sin budget på RT och AI man ska köpa.
Jag klagar inte på att en JEEP Cherokee är för dyr för att köra 3 km till jobbet när en liten moped eller en Ford Ka är mer ändamålsenlig.
De är uppenbarligen inte byggda för att utföra samma saker så frågan varför är en Cherokee dyrare än en moped besvaras inte speciellt väl av ett test hur fort de färdas 3 km i stadstrafik.