Folding@Home på ATI-grafikkort

Permalänk
Medlem

Förlåt MBY men jag orkade bara läsa hälften

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

installerade just folding för 2 dagar sedan på mina 3 burkar. för att utnyttja dualcore i min 805 server är man tvungen att köra 2 instanser. Det gick utmärkt att spela på speldatorn när jag hade folding körande i bakgrunden... Folding drar ytterst lite miunne men ökar ju energiförbrukningen. min Claes ohlson wattmätare vidar att min opteron 144 drar 40 extra watt om folding körs - men fläkten på tysta läget kommer den upp i 56 grader - farligt nära bluescreen temp - synd att behöva köra fläkten på högre rpm... Kommer nog i framtiden bara att köra folding på min server...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Attitude
installerade just folding för 2 dagar sedan på mina 3 burkar. för att utnyttja dualcore i min 805 server är man tvungen att köra 2 instanser. Det gick utmärkt att spela på speldatorn när jag hade folding körande i bakgrunden... Folding drar ytterst lite miunne men ökar ju energiförbrukningen. min Claes ohlson wattmätare vidar att min opteron 144 drar 40 extra watt om folding körs - men fläkten på tysta läget kommer den upp i 56 grader - farligt nära bluescreen temp - synd att behöva köra fläkten på högre rpm... Kommer nog i framtiden bara att köra folding på min server...

Vågade du kolla hur mycket energiförbrukningen gick upp på 805'an ?

Permalänk
Medlem

Ang energiförbrukning: För de som har direktel så kvittar det ju lika om man använder datorn som element eller det vanliga elementet. För oss är det bara att köra på och låta "värmeelen" göra dubbel nytta.

I synnerhet om man har en tyst burk typ mcubed eller zahlman

Visa signatur

Arbetsdator: HFX Mini. Ryzen 3600, GTX1650. Skärmar: Dell 2415

Permalänk
Medlem

Vågade inte kolla vad 805an gick upp till - men den är lågt klockad (3ghz) då den sitter i min server. Om jag har den klockad till 4GHz har jag för mig jag fick 160W skillnad mellan idle och load )

Servern hovrar idle på 220Watt -pekar på 380watt under load med grafik(x300) om klockad till 4ghz - då jobbar dock tm2 rätt hårt. den klarar 3.6GHz utan att tm2 kickar in med stock kylning...

Alla som börjar folda nu med raden av artiklar - joina sweclockers teamet! http://folding.extremeoverclocking.com/team_summary.php?s=&t=...

Permalänk
Avstängd

ATi - They way it was meant to be researched Lämna spelandet åt dom som kan de, alltså nVidia

Visa signatur

You stink. Bender's great. Deal with it

Permalänk
Medlem

Riktigt fint! Om det går att använda datorerna som bara står igång så är det klart man ska göra det!

Visa signatur

Antingen ska du hålla dig lugn, eller slå så det känns.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MBY
Helt riktigt är att datorn konsumerar mer energi när den arbetar än om den står och stampar "idle". Men den absolut största delen av strömförbrukningen är konstant, så länge datorn är på. Exempelvis kanske en dator drar 120 watt som minst och 135 watt som mest.

Näru, MBY. Här är du ute och cyklar. Bara på själva korten programmet kommer köras på skiljer det nästan 100W i idle och load. Förutsatt att programmet utnyttjar GPU'ns potential till max. Väljer man att utnyttja sin dator till max, dvs tre instanser (1 på GPU och 2 för sin dualcore) kan det skilja uppåt 170 watt mellan idle och load om man har en av AMD's high-end dualcores, som jag antar är vanligare än conroe fortfarande.

Lägg till på det 80% effektivitet ur nätagget, och skillnaden mellan idle och load är över 200W ur väggen.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Finkelzvin
Näru, MBY. Här är du ute och cyklar. Bara på själva korten programmet kommer köras på skiljer det nästan 100W i idle och load. Förutsatt att programmet utnyttjar GPU'ns potential till max. Väljer man att utnyttja sin dator till max, dvs tre instanser (1 på GPU och 2 för sin dualcore) kan det skilja uppåt 170 watt mellan idle och load om man har en av AMD's high-end dualcores, som jag antar är vanligare än conroe fortfarande.

Lägg till på det 80% effektivitet ur nätagget, och skillnaden mellan idle och load är över 200W ur väggen.

Jag talar om ett typiskt system, inte värsta tänkbara scenario. Vidare är det skillnad på TDP och verklig effektförbrukning. Har du faktiskt mätt effektförbrukningen? Det har jag. Jag har ingen aning om skillnaden mellan ett lastat och olastat grafikkort, utan jag talar om det generella fallet. Vidare så är full last (nu talar vi om CPU igen) inte liktydigt med högst effektförbrukning. Det beror på vilka typer av instruktioner som körs. Om man tar den värsta processorn ur någon familj ser man mycket riktigt en skillnad på närmare 50%. Men det är ändå inte representativt för alla system. Många väljer säkert att köra någon sådan klient bara under arbetstid (eller dagtid), och vanligt arbete med datorn får den att pendla mellan tomgång och last.

I praktikten, alltså om man bortser från syntetiskta tester så är skillnaden rätt liten jämte hela systemets konsumption (skärmen också).

Så: Skillnaden är liten, viktig för en enskilde (precis vad jag skrev tidigare), men oviktig jämte världens energiförbrukning.

Edit: Dessutom: Skulle jag påstått att siffrorna var baserade på någon perfekt "medeldator"? Nej. Likt förbaskat har jag inte tagit de från luften, utan är från en faktiskt mätning jag gjort. Har aldrig utgett detta för att vara representativa siffror.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MBY
Jag talar om ett typiskt system, inte värsta tänkbara scenario. Vidare är det skillnad på TDP och verklig effektförbrukning. Har du faktiskt mätt effektförbrukningen? Det har jag. Jag har ingen aning om skillnaden mellan ett lastat och olastat grafikkort, utan jag talar om det generella fallet. Vidare så är full last (nu talar vi om CPU igen) inte liktydigt med högst effektförbrukning. Det beror på vilka typer av instruktioner som körs. Om man tar den värsta processorn ur någon familj ser man mycket riktigt en skillnad på närmare 50%. Men det är ändå inte representativt för alla system. Många väljer säkert att köra någon sådan klient bara under arbetstid (eller dagtid), och vanligt arbete med datorn får den att pendla mellan tomgång och last.

I praktikten, alltså om man bortser från syntetiskta tester så är skillnaden rätt liten jämte hela systemets konsumption (skärmen också).

Så: Skillnaden är liten, viktig för en enskilde (precis vad jag skrev tidigare), men oviktig jämte världens energiförbrukning.

Edit: Dessutom: Skulle jag påstått att siffrorna var baserade på någon perfekt "medeldator"? Nej. Likt förbaskat har jag inte tagit de från luften, utan är från en faktiskt mätning jag gjort. Har aldrig utgett detta för att vara representativa siffror.

Nej, jag har inte tagit siffror ur luften, varför skulle jag göra det? Ej heller har jag mätt upp siffrorna själv. Det överlåter jag åt folk med utrustning.

Grafikkort: http://www.xbitlabs.com/articles/video/display/gpu-consumptio...
CPU:http://www.xbitlabs.com/articles/cpu/display/core2duo-shootou...

Ja, jag drog upp något som liknar ett worst case scenario. Men att det bara skiljer 15W mellan vila och last på en medeldator ställer jag mig tveksam till.

Här finns ett passande test där SPCR testar skillnaden mellan en vilande dator och en dator som kör Seti@Home, en applikation som jag kan tänka mig belastar datorn likvärdigt som Folding@Home, och i den strömsnålaste av datorer (en 2800+ clawhammer, som får anses vara en bra bit under medelmåttet idag) ser man en skillnad på 45W, vilket är 200% högre än dina värden. Har man däremot en Prescott i tämligen blygsamma 2.8Ghz (vilket nog är representativt för en stor del av färdigbyggda hemdatorer, märkesdatorer, m.m) ser man en ökning på 63W. Ganska mycket.

http://www.silentpcreview.com/article169-page3.html

Edit: Såg att det inte var SPCR som gjort jämförelsen, utan nån tysk sida. Trivial miss, men rätt ska vara rätt. Här är ursprungstestet:
http://www.computerbase.de/artikel/hardware/prozessoren/2004/...

Permalänk
Hedersmedlem

MBY: Släpp det, frågan här rör ju datorer med X1800- och X1900-kort, och då är det ointressant om en Pentium 120 MHz drar lika mycket hela tiden.

Siffrorna är lätta att kolla upp på tom's eller anandtech, runt 100W i skillnad för ett X1900XT/X och 100-150 W skillnad för en Pentium D 8xx med lite klocka, ifall processorn behöver jobba på fulload.

Själv sitter jag i ett elektroniskt uland och pröjar 1,70 per kWh, så jag tvivlar på att jag kommer annat än att testa det här lite på skoj.

Att ovan nämnda grafikkort har ett visst rykte när det gäller fläktljud vid fulload ser jag dock som ett större problem. Vid normal drift störs jag inte nämnvärt, men inte fan att jag sitter och ser på film eller lyssnar på musik med ett X1800XT på maxvarv.

Dock med reservation för att programmet troligen inte utnyttjar alla olika beräkningsenheter, och därmed nog inte maxbelastar mer än en del av kortet.

Visa signatur

Religion och vidskepelse är smittsamma psykiska sjukdomar, den biologiska motsvarigheten till datorvirus.
"-Pappa, pappa, idag firade vi födelsedag och hela dagis fick gå på McDonalds. - Vems födelsedag då? - En farbror som hette Lenin."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ulvenstein
Dock med reservation för att programmet troligen inte utnyttjar alla olika beräkningsenheter, och därmed nog inte maxbelastar mer än en del av kortet. [/B]

Det är av vad jag kan se så att programmet använder shaderprocessorerna på kortet och på en X1900 finns det 36 eller 48 sådana beroende på version. Så varmt blir det nog.

Permalänk
Avstängd

Jag hade lite brått igår, så mitt senade inlägg blev lite rörigt.

Jodå, jag känner också till siffrorna, och jag har hela tiden sagt att strömförbrukningen är ett bra skäl att inte köra sådana här klienter. Om ni läser vad jag skriver så finner ni att jag inte kör Folding@Home av just den orsaken! Ni har rätt i att skillnaden för ett X1900-kort är mycket stor, men samtidigt kan man räkna med att basförbrukningen i en dator med ett sådant kort är rätt hög (dock tycker jag inte att Pentium D är en bra prolle att ta siffror ifrån. Den drar verkligen mest).

Det enda jag sagt är att emedan ökningen i strömbörbrukning kan vara skäl nog för den enskilde, så gör det knappast någon skillnad i det stora hela.

Jag svarade på Foola Zoolas inlägg, och denna kontext handlade mer om 24/7-körning. Det är ju tydligt att om man går från t.ex. 12/7 till 24/7 så dubblas effektförbrukningen helt oavsätt vad för komponenter man använder sig av. Ändock drar jag slutsatsen att det "lönar sig" om man gör en riskanalys. För hela resonemanget är det genuint ointressant med exakta siffror. Endast storleksordningar är av värde och en dator drar något hundratal watt. Jag förstår inte att ni hänger upp er på exempelsiffror om 15 watt. Okej, ändra 15 watt till 150, och 12% till 50%, och anta att datorer som inte kör Folding aldrig arbetar i full-load, och att datorer med Folding alltid drar maximalt med ström. Det är också en förenkling varken bättre eller sämre än min. För förenkla är precis vad vi måste göra.

Mina siffror är baserade på ett Athlon64 3200+, "Newcastle"-system med ett för tråden icke-relevant grafikkort. Trots sina 90 watt eller så som TDP drar hela systemet 135 watt full load, och strax under 120 i "idle" (mätt "ur väggen"). Nu har jag visseligen bara siffrorna, men jag tror att liksom av en händelse var det Folding, alternativt Seti, som jag testade med (kan möjligen varit Prime95). Effektförbrukningen vid full-load är som sagt beroende på vad processorn gör, så det kan vara skillnad mellan olika sätt att belasta processorn. Skillnaden bör vara märkbar, men rätt liten (inom rimliga gränser. Processorn kör ju faktiskt instruktioner hela tiden. Enda skillnaden mellan "idle" och "full load" är ju att vid det senare så gör vi nytta, och det tidigare exekvarar NOP- eller HLT-instruktioner). Hur det ser ut på GPU-sidan vet jag inte mycket om, men jag gissar att det - precis som ni påpekat - är skillnader mellan "full load" och "full load". En anledning till att skillnaden antagligen blir en aning mindre mätt vid vägguttaget än om man skulle mäta tillförseln till GPU/CPU är att nätaggets verkningsgrad inte är konstant. Nätaggets verkningsgrad är ofta som bäst strax under maximal förbrukning, som som sämst om det är olastat.

Pentium D anser jag vidare inte vara representativ. Denna prolle är praktiskt taget en "trasig" design. Klart att vi får helt diamtralt olika siffror om vi använder t.ex. ömsom Pentium M (strömsnål) och ömsom Pentium D (slösaktig). Det är ju grafikkortets stor skillnad mellan idle och full load som är viktig just för denna tråd, fast inte för mitt inlägg. Ett system med ett sådant grafikkort kanske pendlar mellan 150 och 250 watt i förbrukning, eller 100 och 200 i medeltal (som sagt vi kan inte jämföra "ideal idle" med "ideal full load", utan behöver någon sorts genomsitt).

Men kontentan är att jag inte riktigt förstår var vi inte skulle vara överrens. En dator som arbetar drar mer ström än en i vila, och att gå från t.ex. "kontorstid" till 24/7 mer än fördubblar effektförbrukningen. Således gör många som jag - och kör inte sådana här program - just eftersom ström kostar. Men Foola Zoola var inte orolig för sin plånbok, han(?) var orolig för miljön om man går till "24/7"-körning. Då är ju den största ökningen den ökade körtiden (tre gånger från kontorstid till 24/7). Den andra posten blir konstant full load i stället för mestadels idle och lite full load. Typiskt under 50%.

Givetvis håller jag med om att 120 - 135 watt inte är representativt om vi räknar med X1900-kort. Men det var inte grejen. Frågan rörde om program som Folding eller 24/7-körning märks som elkonsument.

Finkelzvin: Jag har naturligtvis inte påstått att du skulle tagit siffror ur luften.
Ulvenstein: Ingen har väl talat om Pentium 120?

Edit: Jag är också nyfiken på hur GPUn belastas med Folding. Mycket av det grafikkort gör handlar ju om saker som ska synas, så det är ju troligt att inte alla delar används fullt ut. GPUer är mycket snabba på s.k. microfloats, flyttal med låg precision som har kort ordlängd, typiskt 12 - 24 bitar. Mer behövs inte för "visuella" beräkningar. Dessa microfloats är ju samtidigt tillräckligt generella för att användas på annat sätt. Jag gissar att det är detta som utnyttjas av Folding. Samtidigt, så är ju microfloats huvuddatatypen - svåvitt jag förstår - så nyttjande av dessa leder säkert till hög belastning. De interna ordlängderna är vidare olika för olika tillverkare. Därför kommer inte programmet till alla GPUer samtidigt, om alls.

Visa signatur

http://www.theatlantic.com/national/archive/2012/05/how-the-p...
"If there's a simple lesson in all of this, it's that hoaxes tend to thrive in communities which exhibit high levels of trust. But on the Internet, where identities are malleable and uncertain, we all might be well advised to err on the side of skepticism."

Permalänk
Medlem

Haha gick ju bra med detta.. "Enligt Stanford ska ATI ge mycket bättre prestanda än Nvidia i deras fall."

Nu presterar ju dock nvidias kort ca 4ggr bättre än atis motsvarigheter.

Visa signatur

Intel I7 2600K, 4gb ddr3, gtx 560ti + geforce 9800gt physx. Ocz modxtream 700w nätagg