Tycker det sättet att mäta har flera brister. För det första så mäter de vid 16ms. Det baserar sig på att folk vill ha över 60FPS, men anledningen att folk tycker sig se skillnad på 60FPS är ju för att man är van vid att mäta genomsnittet. Att sätta 16ms innebär att man kanske snackar genomsnitts FPS på 80-90FPS. Även om AMD bara är lite sämre så hamnar de lätt på precis fel sida om denna gräns. Så ett sådant hårt gränsvärde kan göra små skillnader stora. En annan sak är att de mäter vi 99;onde procentilen. Det prickar inte helt rätt då den bara är relativt de andra 99 procentilerna egentligen. Den ger inget klart samband.
Genom att bara justera vid vilken sekund man väljer att mäta latens kan man alltså få väldigt olika resultat. Mäter man vid 12ms i BF så misslyckas alla processorer med alla frames, mäter man vid 50ms så lyckas alla, beroende på hur man finjusterar där emellan så kan man framställa de olika processorerna som olika bra.
Man skulle kunna mäta vid 30ms och bestämma det utgångspunkt för alla tester. Men det är fortfarande väldigt nyckfullt. Om en processor prickar in nästan alla frames på 29ms och en annan på 32ms så kan den snabbare av dem få 10 gånger så bra resultat.
Nä jag förespråkar genomsnitts FPS- på låga upplösningar för att se de generella styrkeförhållandena. Då ser man hur mycket som skiljer procentuellt sett, det ger inte nyckfulla hoppiga resultat. Sedan så tar man bara och mäter frame latency och ser ifall någon processor har några konstiga hack-tendenser, om den inte har det så låter man genomsnitts FPS tala. Om en processor är 20% snabbare så syns det då. Inte som med här testet där en 20% snabbare processor kan få 400% bättre resultat om man lägger bryttiden rätt.