Skrivet av emilakered:
Väldigt förenklat, precis så. Din FPS-mätare visar stabilt 60, men under den sekunden uppstår det variationer som gör att upplevelsen blir "hackig".
Jag rynkade på näsan direkt när jag hörde eran undermåliga tolkning av "fps" i videon faktiskt. Ni tolkar fps för bokstavligt; "frames per second" så det är antalet frames över en sekund, sedan får ni det att låta som att problemet är att man inte får någon information om vad som händer mer lokalt under den sekunden, dvs. att distributionen av frames inte på ett tillfredställande sätt kan beskrivas av ett mått som mäter över en hel sekund. Kort och gott vill ni kalla det för att det är för låg upplösning i tiden att köra på en sekund.
Det första ni säger är ju helt sant; Antalet bilder som visats över en sekund säger inte så mycket om man inte vet hur de har fördelats över den sekunden, så långt är jag med. Men att det i sin tur gör att fps är meningslöst är ju inte rätt.
Exempel: FPS är ett mått på bilder per tidsenhet och att man väljer just sekunder är bara en smakfråga och om inte annat ett bra val för att det ger siffror i storleksordningen 1-100 typiskt (Såvida det inte är en galen mismatch mellan applikationens krav och hårdvarans prestanda då) och mänsklig syn ligger ju även den någonstans i mitten av det spannet (Ingen källa, men varenda människa som spelar vet med sig att det brukar vara någonstans i 30-60 fps spannet som man kan känna av att spelet inte flyter och det finns ju en anledning till att TV-apparater ligger på 50 MHz (25 fps) och inte 200 MHz till exempel). Man hade precis lika gärna kunnat välja fph och lagt på en faktor 3 600 (60 sekunder per minut gånger 60 minuter per timme) och börjat snacka om "360 000 fph" istället för 100 fps. Men här lyser också problemet mer eran förkaring/tolkning igenom; Ni får det att låta som att om jag skulle mäta i fph så skulle det kräva att mitt system fick rita bilder i 1 timme för att sedan ge mig en siffra. Det går förvisso att göra också, men jag kan ju precis lika gärna låta systemet projicera min nuvarande prestanda på hur många bilder det skulle resultera i över en timme. Vidare så är det ju så av de fps-mätare som jag spanat på så är det ju väldigt få som faktiskt updaterar bara 1 gång per sekund.
Ni sa även att det är svårt att relatera till frametime kontra fps; det låter ju också knepigt. Det är ju inte svårare än att 1/fps = framtime <=> fps = 1/frametime, där frametime mäts i skunder, så storleksordningen på måttet frametime kommer för 1-100 fps ligger mellan 0.01 - 1 sekund, eller 10 - 1000 ms om man så vill.
Hur som helst; Jag är helt övertygad om att ni är införstådda med vad problemet är och jag blev helt klart upplyst av eran film, men jag tycker inte om eran tolkning av fps som mått.
Jag kommer även att tänka på eventuella lösningar för att ni skall kunna ge en bra representation av prestanda och spelupplevelse; fördelningsgrafer. Kort och gott skulle ni kunna slänga in en graf med en fördelning på fps/frametimes över en Benchmark. Nu vet jag inte hur det ser ut med möjligheterna att lagra och presentera denna data eller hur ofta olika benchmarks kastar ur sig en siffra för fps, men sådanna grafer skulle absolut kunna användas för att ge en bättre helhetsbild.
Notis om uppdateringsfrekvensen för fps-mätare: Om vi antar att hackighet upplevs om fps går under ett visst värde - säg 30 fps - så betyder det i sin tur att man bör ha en uppdateringsfrekvens på fps:en på just ~30 uppdateringar per sekund (ups) för att man faktiskt ska märka av de gånger då fps:en går "märkbart" lågt så att säga (Orkar inte tänka igenom det så galet noggrant nu, men tror att man med 30 fps som gräns bör ha 60 ups för att inte kunna missa dropsen, http://en.wikipedia.org/wiki/Aliasing ). Notera dock att denna uppdateringsfrekvens alltså skulle vara nyttig att ha för lagring av data, ej för att visa en siffra på en skärm, för om den uppdaterades så ofta skulle det bli mer eller mindre omöjligt att läsa av den.
Att övergå till frame time istället för fps torde för i övrigt vara ekvivalent med att updatera fps vid varje ny frame. Det i sin tur skulle ju innebära att den extra belastningen för att beräkna frame time / fps och eventuellt lagra denna information skulle bli proprtionell mot just din fps, vilket kanske inte är önskvärt alla gånger. Aja, hur som helst; Mycket intressant ämne och helt klart värt att diskutera. Hoppas verkligen att alla spelsidor, hårdvarutillverkare- och utvecklare samt benchmark- och speltillverkare lyfter fram detta problem snart och börjar jobba på sätt att ge oss konsumenter en bättre bild av just spelupplevelsen.
Fråga: Vet ni på Sweclockers vad uppdateringsfrekvensen är på "riktiga benchmarks"? Jag antar att den skiljer sig från den siffra som (kan) visas på skärmen under själva benchmarken. Men det vore ju intressant att veta om den är hög nog för verkligen se de värsta fallen med hög sannolikhet.