Leka med strömförbrukningen :)
Efter mina två senaste projekt bestämde jag mig för att titta djupare på strömförbrukningen. Jag var själv nyfiken på att se hur klockfrekvenser och volt påverkar förbrukningen och upptäckte en del nyttig kunskap på vägen dit. Dax att dela med sig igen!
Testsytem
CPU: AMD Phenom X2 555 (upplåst till X4), se gärna -> Leka med en Phenom 555BE
Grafikkort: ATI Radeon 5850, se gärna -> Leka med ett ATI Radeon 5850
Moderkort: Asus M4A89 Pro/USB3
Minne: Corsair XM3, 4GB DDR3
Hårddisk: Intel SSD G2 80GB
Nätaggregat: Corsair HX 520
OS: Win7 Ultimate x64

Syftet med det här är att hitta "sweetspoten" där prestanda möter förbrukning i en gemensam harmoni. Jag pratar om det läget där man fortfarande har råd att betala hyran istället för elräkningen och ändå kunna spela Crysis med mer än 30 fps
Alla mätningar är utförda på hela systemet, utan skärm eller kringutrustning. C&Q har varit på vid idle. Vid load har systemet belastas med både Prime95 och Furmark samtidigt.

Jag tänkte utföra mina mätningar med följande 3 scenarios:
1. Standard frekvenser (GPU+CPU) med standardvolt
2. Högsta möjliga frekvenser (GPU+CPU) med standardvolt
3. Högsta möjliga frekvenser (GPU+CPU) med nödvändigt volt
--------------------------------------------------------------------------------------
1. Standard frekvenser (GPU+CPU) med standardvolt
Inställning:
CPU: 3,2 Ghz X4 standardvolt (1,39v)
GPU: 725 core 4000 memory (1,087v)
NB volt: 1,05v (undervoltat från 1,296v)
HT volt: 1,05v (undervoltat från 1,203v)
Bilder: Idle ovan, load under


2. Högsta möjliga frekvenser (GPU+CPU) med standardvolt
Inställning:
CPU: 3,8 Ghz X4 standardvolt (1,39v)
GPU: 920 core 5000 memory standardvolt (1,087v)
NB volt: 1,05v (undervoltat från 1,296v)
HT volt: 1,05v (undervoltat från 1,203v)
Bilder: Idle ovan, load under


3. Högsta möjliga frekvenser (GPU+CPU) med nödvändigt volt
Inställning:
CPU: 3,95 Ghz X4 1,521v
GPU: 1023 core 5180 memory 1,25v
NB volt: 1,05v (undervoltat från 1,296v)
HT volt: 1,05v (undervoltat från 1,203v)
Bilder: Idle ovan, load under


OJ OJ OJ! Vad hände där?! De sista 100-150 Mhz:en blev helt plötsligt dyra! Det är knappt min nätaggregat pallar med det
Här har ni en graf på hur detta ser ut vid idle och load.

Visst är det lätt att se "sweetspoten" vid 3,8ghz?! Allt man offrar är 150Mhz på CPUn och 100Mhz på GPUn men man sänker också förbrukningen med 162 Watt i load!
Ni kanske la märke till att jag har undervoltat NB/HT inställningen?! Nedan ser ni varför.
I ovanbilden har ni idle standard volt på NB/HT och under den kör vi undervoltat NB/HT till 1,05v


Den här sista mätningen utfördes med följande inställningar
2. Högsta möjliga frekvenser (GPU+CPU) med standardvolt
Inte dumt att spara 38Watt på NB/HT voltage. Tester visade samma resultat för både load och idle.
Vad sparar vi genom att klocka rätt? Ja, det beror på hur mycket man anstränger datorn såklart. Det är ju trots allt inte bara spel som får datorn ur C&Q utan även filmtittande, skype, extra mycket program som laddas etc. För att inte nämna att C&Q fungerar oftast inte när man klockar och då kan ni glömma nedanstående kostnad.
Kostnad
Låt oss säga att vi snittar en loadtid på 5 timmar / dag. Dax att räkna om Watt till KWh!
Load:
5 timmar x 162W / 1000=0,81 kwh /dag
I månaden 0,81 x 30 dagar=24,3 kwh
Idle:
10 timmar x 38W / 1000=0,38 kwh /dag
I månaden 0,38 x 30 dagar=11,4 kwh
Totalt: 35,7 kwh i månaden
Med ett pris på drygt 100 öre / kwh (detta varierar självklart på din elleverantör) så hamnar man på ca 40 SEK i månaden eller 480 SEK om året.
Det kostar i alla fall mig närmare 500 SEK extra om året för de sista 100 Mhz:en (från 3,8Ghz till 3,9Ghz). Är det värt det? Det är nog upp till var och en att svara på. Man får inte heller glömma bieffekterna av högre spänning. Slitaget på komponenterna blir högre och värmeutvecklingen ökar. Dessa saker går alltid hand i hand.
Det är i alla fall som de säger, "det kostar att ligga på topp" Det är iaf en hel del man kan spara genom att clocka "rätt"!
Mmmarabou