Strömförbrukning hos grafikkort testad

Permalänk
Melding Plague

Strömförbrukning hos grafikkort testad

<font style="font-size: 10pt"><b>Strömförbrukning hos grafikkort testad</b></font> <small class="small">torsdag 2 februari av <a href="mailto:nyhet@sweclockers.com">Jonas</a></small><br>
X-Bit Labs har skrivit en intressant artikel som rör strömförbrukningen hos moderna grafikkort. Det diskuteras om hög energiförbrukningen verkligen är ett problem, och vilka konsekvenser det kan få för miljön med allt mer strömslukande datorer. X-Bit Labs har också mätt hur mycket ström olika grafikkort i olika prisklasser drar.
<br />
<br /><i>”Choosing the graphics card is a complex process which involves analysis of multiply factors, including performance in your favourite applications, anticipated speed in next-generation games and price. Power consumption is a yet another benchmark that may be important for you, or may be not. Everyone decides based on own understanding of the things.”</i>
<br />
<br />Läs artikeln hos <a href="http://www.xbitlabs.com/articles/video/display/gpu-consumptio..." target="_blank">X-Bit Labs</a>.
<br />

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

jävlar vad de drog, mitt nästa kort blir nog en 7800gt/x1800xl de andra korten drog nästan dubbelt så mycket ström inte billigt om man har datorn på 24/7.

Visa signatur

R.I.P Robert 2004-01-29 (klasskompis) Läs: Artikel Nr 1. | Artikel Nr 2. | Artikel Nr 3.

Permalänk

det jag säger ju ATI drar fan mer än min lägenhet.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Man vill inte tänka på hur kylarna på grafikkorten kommer att se ut om några år...

Snart får do också tänka på att byta arkitektur som Intel har gjort...

Visa signatur

Kan starkt rekommendera Honeygain. Dela din internetuppkoppling och få betalt. Används inte för något konstigt utan saker som SEO, Ad verification och App testing.
Använd gärna min länk så får du $5 att starta med :)
https://r.honeygain.me/PONTU9D128

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av RoleX
jävlar vad de drog, mitt nästa kort blir nog en 7800gt/x1800xl de andra korten drog nästan dubbelt så mycket ström inte billigt om man har datorn på 24/7.

Fast å andra sidan så lär du inte maxbelasta grafikkortet 24/7. Kolla istället på idle-siffrorna för att se vad grafikkortet drar när datorn inte arbetar nämnvärt.

Idle förbrukningen ligger på samma nivå på de flesta av dagens kort som med Radeon 9800 pro.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
det jag säger ju ATI drar fan mer än min lägenhet.

I idle (vilket korten går i större delen av dygnet) skiljer det 0.18W mellan ditt kort och ATi's mest strömkrävande. I load skiljer det cirka 40W. Ungefär som en ljussvag glödlampa.

Verkligen skitmycket.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av A.N'doja
det jag säger ju ATI drar fan mer än min lägenhet.

Kan inte du lägga ner? Forumtroll är så 90-tal...

Visa signatur

Space, the final frontier

It's not what you've got, it's how you use it, som gamle Ray Stevens sa.

Permalänk

Shit vad X1800/X1900 drar mycket ström både i load och idle, gemför med GTX 256mb/512mb.

@Finkelzvin: Ja 40w skillnad är mycket för bara ett grafikkort.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av Finkelzvin
I idle (vilket korten går i större delen av dygnet) skiljer det 0.18W mellan ditt kort och ATi's mest strömkrävande. I load skiljer det cirka 40W. Ungefär som en ljussvag glödlampa.

Verkligen skitmycket.

¨

ehm ja ?

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse

@Finkelzvin: Ja 40w skillnad är mycket för bara ett grafikkort.

Relativt sett, ja, men inte utslaget på en elräkning.

Citat:

Ursprungligen inskrivet av A.N'doja
¨

ehm ja ?

Du kan inte ha mycket till lägenhet isf.

Permalänk
Medlem

Dåligt att ATi har gjort så att dom inte klockar ner sig mer, som Nvidias kort gör. Borde inte vara några problem, eller? Förutom kanske att det uppstår "störningar" om man bytter från 2D till 3D.

Att dom inte testade med att mata ATi X18/900 korten med lägre V. Då det går att ändra det lätt med mjukvara.
Skulle gärna vilja se ett sånt test där dom utnyttjar funktioner som kan göra att korten drar lägre W.

Permalänk
Citat:

Ursprungligen inskrivet av Finkelzvin
Relativt sett, ja, men inte utslaget på en elräkning.

Du kan inte ha mycket till lägenhet isf.

jag skrev aldrig att det tog mycket på räkningen, vi har fin lägenhet jag och sambon. en 2a på 65Kvdm. dock vet jag om att dom 40 watten är skit samma men och andra sidan alstrar ATI mer värme än nvidia och rätt mycket mer också, därför jag skrev INTEL+ATI= SANT:D

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd

Sen tar ju ATI o andra sidan inte betalt för drivrutiner som NVIDIA gör om man skall kunna nyttja Nvidias Purevideo......sniket.....

Visa signatur

Fractal Design Refine R2 Asus Commando(1901) Q6600@3600mhz@Vattenkylning Corsair HX620W 4Gb 2x2 dominator 8500 Powercolor HD4870X2 Ikari Laser WD MyBook 500Gb@E-Sata 3dmark06@20436+/-
Win xp sp3/win 7 ultimate

Permalänk
Medlem

Om man vill kan man ju ändra i grafikkorts-bioset, både 2D-frekvenser och spänningar.

Framtidens grafikkort, ja, dom lär ju dra en hel del, men tillverkningsprocessen minskar ju också, och det kan förhoppningsvis balansera det en del.

Sen så saknar jag en tabell med alla grafikkort i testet, samt att 6600GT visst har 2D-klock till skillnad till vad som står

Visa signatur

Ja, jag har också hård vara.
Är du inte dum, har du inte otur när du tänker är du troligtvis totalt hjärndöd.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
det jag säger ju ATI drar fan mer än min lägenhet.

Citat:

Ursprungligen inskrivet av DataNusse
Shit vad X1800/X1900 drar mycket ström både i load och idle, gemför med GTX 256mb/512mb.

@Finkelzvin: Ja 40w skillnad är mycket för bara ett grafikkort.

Citat:

Ursprungligen inskrivet av A.N'doja
jag skrev aldrig att det tog mycket på räkningen, vi har fin lägenhet jag och sambon. en 2a på 65Kvdm. dock vet jag om att dom 40 watten är skit samma men och andra sidan alstrar ATI mer värme än nvidia och rätt mycket mer också, därför jag skrev INTEL+ATI= SANT:D

Denna diskussion har ju redan varit uppe. Nej, X1900 drar inte speciellt mycket mer än GTX 512 (ibland mer ibland mindre...läs vidare), både Anandtechs och Toms hardware artiklar visar på det. Intressantast är Toms artikel som visar att strömförbrukningen varierar mycket bland korten beroende på vilken applikation som kör när man mäter.

http://www.anandtech.com/video/showdoc.aspx?i=2679&p=15
http://www.tomshardware.se/grafikkort/20060125/ati_radeon_x19...

X-Bits labs kör en deltest av 3DMark06 vilket uppenbarligen passar nVidia korten bättre strömförbrukningsmässigt.

Edit:

Ytterligare test, från techreport: http://www.techreport.com/reviews/2006q1/radeon-x1900/index.x...