Att det finns rumslig och/eller (mer troligt) tidsmässig lokalitet kan vi vara 100 % säkra på, annars hade en cache inte gjort någon skillnad.
Men känns inte sannolikt att det är fysik och AI i spel som skulle vara förklaringen, tveksamt att det har tillräckligt stort "working-set" för att det är först med väldigt stor LLC som man ser utdelning.
TechPowerUp testar rätt många olika fall och de har specifikt en sektion för simuleringar av olika slag, en (av få) kategorier där Arrow Lake presterar väldigt bra. Vad är unikt med Arrow Lake jämfört med AMD och tidigare Intel CPUer? Betydligt större L1/L2-cache, så det indikerar att denna typ av laster tenderar ha ett "working-set" som påverkas av mer/snabbare cache i "långa tiotals MB nivån".
Min gissning som gör spel unikt är att moderna GPU-drivers gör rätt mycket återkommande jobb per frame. Det som görs per frame är i moderna spel relativt mycket + moderna GPU-drivers är rätt stora och komplexa. Så det känns mer troligt som förklaring över varför stor LLC spelar roll i spel, men inte när man jobbar med stora kalkylblad, när man jobbar med kemi/fysik-simularingar, kompilering (som likt spel tenderar ha väldigt dålig IPC, men uppenbarligen av lite andra orsaker) etc.
Absolut, och utifrån egen erfarenhet lägger man sällan all tung beräkning på en och samma frame. Istället delar man ofta upp större arbetsmängder över tid – till exempel om man behöver raycasta över 10 000 objekt så fördelar man jobbet så att det kanske blir 100 raycasts per frame.
Den här typen av amortization eller inkrementell bearbetning är väldigt vanlig i spelutveckling för att jämna ut belastningen och undvika prestandaspikar. Det gör också att man får ett jämnare “working set” som ofta får plats i CPU-cache, vilket förklarar varför en större cache (t.ex. 3D V-Cache eller större L2/L3) kan göra stor skillnad i just spel – man slipper dyra minnesaccesser och kan hålla mer data nära processorn även när mycket händer under huven.