Jag hade lite brått igår, så mitt senade inlägg blev lite rörigt.
Jodå, jag känner också till siffrorna, och jag har hela tiden sagt att strömförbrukningen är ett bra skäl att inte köra sådana här klienter. Om ni läser vad jag skriver så finner ni att jag inte kör Folding@Home av just den orsaken! Ni har rätt i att skillnaden för ett X1900-kort är mycket stor, men samtidigt kan man räkna med att basförbrukningen i en dator med ett sådant kort är rätt hög (dock tycker jag inte att Pentium D är en bra prolle att ta siffror ifrån. Den drar verkligen mest).
Det enda jag sagt är att emedan ökningen i strömbörbrukning kan vara skäl nog för den enskilde, så gör det knappast någon skillnad i det stora hela.
Jag svarade på Foola Zoolas inlägg, och denna kontext handlade mer om 24/7-körning. Det är ju tydligt att om man går från t.ex. 12/7 till 24/7 så dubblas effektförbrukningen helt oavsätt vad för komponenter man använder sig av. Ändock drar jag slutsatsen att det "lönar sig" om man gör en riskanalys. För hela resonemanget är det genuint ointressant med exakta siffror. Endast storleksordningar är av värde och en dator drar något hundratal watt. Jag förstår inte att ni hänger upp er på exempelsiffror om 15 watt. Okej, ändra 15 watt till 150, och 12% till 50%, och anta att datorer som inte kör Folding aldrig arbetar i full-load, och att datorer med Folding alltid drar maximalt med ström. Det är också en förenkling varken bättre eller sämre än min. För förenkla är precis vad vi måste göra.
Mina siffror är baserade på ett Athlon64 3200+, "Newcastle"-system med ett för tråden icke-relevant grafikkort. Trots sina 90 watt eller så som TDP drar hela systemet 135 watt full load, och strax under 120 i "idle" (mätt "ur väggen"). Nu har jag visseligen bara siffrorna, men jag tror att liksom av en händelse var det Folding, alternativt Seti, som jag testade med (kan möjligen varit Prime95). Effektförbrukningen vid full-load är som sagt beroende på vad processorn gör, så det kan vara skillnad mellan olika sätt att belasta processorn. Skillnaden bör vara märkbar, men rätt liten (inom rimliga gränser. Processorn kör ju faktiskt instruktioner hela tiden. Enda skillnaden mellan "idle" och "full load" är ju att vid det senare så gör vi nytta, och det tidigare exekvarar NOP- eller HLT-instruktioner). Hur det ser ut på GPU-sidan vet jag inte mycket om, men jag gissar att det - precis som ni påpekat - är skillnader mellan "full load" och "full load". En anledning till att skillnaden antagligen blir en aning mindre mätt vid vägguttaget än om man skulle mäta tillförseln till GPU/CPU är att nätaggets verkningsgrad inte är konstant. Nätaggets verkningsgrad är ofta som bäst strax under maximal förbrukning, som som sämst om det är olastat.
Pentium D anser jag vidare inte vara representativ. Denna prolle är praktiskt taget en "trasig" design. Klart att vi får helt diamtralt olika siffror om vi använder t.ex. ömsom Pentium M (strömsnål) och ömsom Pentium D (slösaktig). Det är ju grafikkortets stor skillnad mellan idle och full load som är viktig just för denna tråd, fast inte för mitt inlägg. Ett system med ett sådant grafikkort kanske pendlar mellan 150 och 250 watt i förbrukning, eller 100 och 200 i medeltal (som sagt vi kan inte jämföra "ideal idle" med "ideal full load", utan behöver någon sorts genomsitt).
Men kontentan är att jag inte riktigt förstår var vi inte skulle vara överrens. En dator som arbetar drar mer ström än en i vila, och att gå från t.ex. "kontorstid" till 24/7 mer än fördubblar effektförbrukningen. Således gör många som jag - och kör inte sådana här program - just eftersom ström kostar. Men Foola Zoola var inte orolig för sin plånbok, han(?) var orolig för miljön om man går till "24/7"-körning. Då är ju den största ökningen den ökade körtiden (tre gånger från kontorstid till 24/7). Den andra posten blir konstant full load i stället för mestadels idle och lite full load. Typiskt under 50%.
Givetvis håller jag med om att 120 - 135 watt inte är representativt om vi räknar med X1900-kort. Men det var inte grejen. Frågan rörde om program som Folding eller 24/7-körning märks som elkonsument.
Finkelzvin: Jag har naturligtvis inte påstått att du skulle tagit siffror ur luften.
Ulvenstein: Ingen har väl talat om Pentium 120?
Edit: Jag är också nyfiken på hur GPUn belastas med Folding. Mycket av det grafikkort gör handlar ju om saker som ska synas, så det är ju troligt att inte alla delar används fullt ut. GPUer är mycket snabba på s.k. microfloats, flyttal med låg precision som har kort ordlängd, typiskt 12 - 24 bitar. Mer behövs inte för "visuella" beräkningar. Dessa microfloats är ju samtidigt tillräckligt generella för att användas på annat sätt. Jag gissar att det är detta som utnyttjas av Folding. Samtidigt, så är ju microfloats huvuddatatypen - svåvitt jag förstår - så nyttjande av dessa leder säkert till hög belastning. De interna ordlängderna är vidare olika för olika tillverkare. Därför kommer inte programmet till alla GPUer samtidigt, om alls.