Har läst en del om hur det hela fungerar, diskuterat och kollat en del spelkod. så här ligger det med all säkerhet till.
1: Exakt hur ett spel pratar med grafikkortet varierar men de allra flesta försöker packa ihop pixlar (i spel så handlar det mest om att räkna ut punkter i ett 3d space) i ett stort block och skicka över till grafikkortet. Klockar du upp FSB'n så får du i första hand ner latenserna, bandbredden verkar däremot inte påverkas speciellt. Eftersom antalet anrop till grafikkorten verkar vara få så spelar inte latensen speciellt stor roll där. Givetvis spelar det fortfarande roll på minnet (kommunikation med minne är alltid "duttig".
2: Oavsett upplösning på spelet så är i princip alla spel exakt samma i vilken information de skickar. Bilden blir inte mer detaljerad vad gäller upplösning och processorns jobb är därför detsamma (grafikkortet skalar däremot upp bilden och får jobba hårdare vid högre upplösningar). Däremot förändras givetvis processorns jobb beroende på vilka inställningar man har i spelet. kanske kopplar på fysik, olika typer av grafiska effekter mm.
Vill man testa vilken processor som är bäst för ett spel som är det bästa och sänka grafiken till lågt (800x600 eller liknande), maximera detaljer och eventuella fysik inställningar mm. Sedan kontrollera de lägsta fps talen. Den processor som har högst där är den bästa processorn för det spelet.
3: I vissa test så vinner AMD mot Intel på högre upplösningar. Orsaken är just bättre FPS på de lägre nivåerna då. Höjer man upplösningen så får grafikkortet jobba hårdare och kapar därför de högre FPS talen.
Här finns ett inlägg om det: http://www.sweclockers.com/forum/showthread.php?s=&postid=854...
Exempel för att förklara principen, exeplet visar påhittade värden under en minut
Dator 1
20 FPS under 10 sekunder, 80 FPS under 40 sekunder, 200 FPS under 10 sekunder
(20 * 10 + 80 * 40 + 200 * 10) / 60 = 90
Dator 2
25 FPS under 10 sekunder, 60 FPS under 40 sekunder, 140 FPS under 10 sekunder
(25 * 10 + 60 * 40 + 140 * 10) / 60 = 67,5
Nu höjer vi grafiken och grafikkortet kapar FPS vid 50 rakt av
Dator 1
20 FPS under 10 sekunder, 50 FPS under 40 sekunder, 50 FPS under 10 sekunder
(20 * 10 + 50 * 40 + 50 * 10) / 60 = 45
Dator 2
25 FPS under 10 sekunder, 50 FPS under 40 sekunder, 50 FPS under 10 sekunder
(25 * 10 + 50 * 40 + 50 * 10) / 60 = ~46