Skulle vara riktigt spännande om någon kunde ge en riktigt bra förklaring varför (nästan) alla spel ser en boost från väldigt stor cache medan i princip inget annat ser någon relevant vinst alls... Det är långt ifrån uppenbart varför och att det är så blev uppenbart redan vid lansering av i7-5995C.
En sak som nog är relevant för den förklaringen är exakt vilka fall stor cache påverkar.
Ställer tar man SweC tester och jämfört 7800X3D mot 13900KS finns ett par rätt tydliga trender.
1. 7800X3D har ett större försprång i genomsnittlig FPS jämfört med lägsta FPS, i 720p med 4090 är genomsnittlig FPS 14 % högre medan fördelen är 7 % i lägsta FPS
2. Sorterar man sedan de 12 testade titlarna efter uppmätt FPS kan man också notera att 7800X3D har störst fördel i titlar med väldigt hög FPS.
I den 3:e-del med högst FPS är fördelen för 7800X3D hela 19 % (d.v.s. faktiskt statistiskt relevant) .
I den 3:e-del med lägst FPS (d.v.s. där skillnad i prestanda är som mest kritiskt) är det jämt skägg, 0 % skillnad.
D.v.s det verkar att vid riktigt hög FPS (lägsta FPS på övre 3:e-delen är faktiskt >390 FPS i genomsnitt...) lyfter stor CPU-cache bort en relevant flaskhals. Men vid de mest tungdrivna titlarna (den lägre 3:e-delen har dock fortfarande en lägsta FPS på >140 FPS) verkar stor cache vara mindre viktigt.
Tittar man på de 3 mest tungdrivna titlarna har faktiskt 13900KS 8 % bättre lägsta FPS jämfört med 7800X3D,
Så de mest tungdrivna titlarna känns "logisk": de är begränsade av rå beräkningskraft, den är högre hos de 13000/7000 modeller med högsta single-core frekvens. Men vid högre FPS flyttas flaskhalsen från rå beräkningskraft till något annat. Det "något annat" gillar uppenbarligen stor CPU-cache, men vad är det???
Du glömde att peta in någonting om m1/m2:s överlägsenhet, men det vi ska ta med oss från detta är alltså att denna är inte snabbast, många kanske tycker det men intel är alltså bättre 👍