Det är knepigt, men en beräkning är vanligen just en operation med ett räknesätt.
Datorer är alltid lite olika snabba på olika typer av operationer, och lösrykta "prestandamått" som N miljoner per sekund är alltid ett medel.
"Medel" i sin tur beror på applikation. En väldesignad processor är snabbast på de vanligast förekommande operationerna. Detta kan formaliseras till något som kallas Amdahls lag: "En prestandaökning är proportionell mot den absoluta förbättringen och dess relativa frekvens".
1001 = 9 är en "beräkning" (likhet). Likaså är 1001 + 9 eller 1001 / 9. Troligen kräver 1001 / 9 fler klockcykler än 1001 + 9.
Om datorn vore 8-bitars, så ryms inte talet 1001 i ett register. Då får man dela upp talet över flera (två), och 1001 + 9 tar således två klockcykler (givet att addition tar en).
Operationer/sekund eller ännu värre, instruktioner/sekund, är ett taskigt prestandamått eftersom det inte säger något om operationernas komplexitet eller relevans. Men, för att beräkna antalet operationer per sekund får man helt enkelt räkna antalet instruktioner av varje typ i en given applikation, notera deras frekvens ("vanlighet") och helt enkelt se hur lång exekveringstiden blir.
Pipelining och annat godis som spekulativ exekvering och hoppförutsägelse försvårar ytterligare. Det är inte sagt att instruktion A går i samma hastighet om den är omgivet (följer eller följs av) instruktion A (igen), B eller C.
Slutligen går mycket av processorns tid åt rent "administrativa" instruktioner. Flera operationer såsom division och addition är omgiven av instruktioner för att hämta/spara i minnet, sätta flaggor, loopa och leka med stacken.