Den ligger lite högre i speltesterna för processorerna - ja.
Det ska man inte ens bry sig om att titta på.
Varför?
När man testar processorer testar man dem på samma grafikkort och så nära samma moderkort som möjligt, vilket förutom i7 *oftast* betyder ett nForce 780i/780a, och ett Geforce GTX-kort.
Sen behöver man en upplösning där grafikkortet inte sätter gränsen, utan CPUn, och därför kör man typ 1024x768 eller liknande, med absolut minimum grafik. Det är ett krav, för inget annat i systemet får ju flaska innan processorn gör det.
Toms Hardware:
"We tested at at relatively modest graphics settings, 1024x768 resolution with the game's lowest quality settings, because we didn't want our graphics card to be the performance-limiting factor. This is, after all, a CPU test."
Anandtech:
"I didn't want the graphics card to be our primary performance constraint, so I tested at very low visual quality levels, and I used the 1024x768 display resolution and DirectX 9."
Techreport:
"Oh, and the screen resolution was set to 1280x1024 for testing, with UT3's default low quality options, physics and "framerate smoothing" disabled."
Men!
Vem av er tänker köra CoD4 el dyl på lowest/lowest/low/low/low 0xAA/0xAF high performance 1024x768? Det är ju det de testar, och det ni planerar köp efter?
Vad händer då om du istället kör 1680x1050 eller 1920x1200, med mer normala inställningar?
Tom's Hardware
"Ironically, as we use a more mainstream setting of 1680x1050 with High Detail, the difference between the Core2Quad Q9650, Core i7 920 and Phenom X4 955 dissipates to being less than .5 FPS, well within the margin for error, clearly showing that modern games will be limited by the video card long before any of these CPU's become an issue. And again, we tried it with a Geforce GTX 295."
NOLL skillnad - eftersom det inte längre är processorn som flaskar utan grafikkortet(/en).