Ursprungligen inskrivet av frankof
Ok, detta blir jobbigt att förklara då jag inte är specielt pedagogisk
Det hela börjar med det binära talsystemet (digitalt mao), det finns i grunden bara två värden, 0 och 1(bit), dom kan kombineras i ett otal olika kombinationer, beroende på hur många du tillåter efter varandra.
32bit är förenklat en serie på 32 ettor och/eller nollor, det ger en viss summa möjliga kombinationer (2^32 vilket ger runt räknat 4GB "variationer")
Det i sig är en begränsning som vi med dagens datorer kommer allt närmre, och för att fortfarande kunna göra snabbare beräkningar måste gränsen för "väggen" flyttas upp (64bit, 2^64 = löjligt många bitar, med dagens mått mätt)
Det var inte så länge sedan att 8bit ansågs som fullt tillräckligt.
(In 1981, Bill Gates said that "640 k ought to be enough for anyone" Inte direkt relaterad, men en rolig reflektion om hur svårt det kan vara att sia om framtiden.)
Ang, prestanda, det är inte direkt relaterat till antalet bitar, idag, ett program skriven för 32 bit OS/HW presterar inte bättre på 64 bit, dock kommer ett program skriven för 64bit att prestera bättre än ett 32bit program, förutsatt att det är behov för den extra kapaciteten, i daglig enkel användning finns det ingen eller liten skillnad. (nu)