Fråga gällande grafikkortens strömförbrukning då och nu

Permalänk
Inaktiv

Fråga gällande grafikkortens strömförbrukning då och nu

Drar grafikkort mer ström än för tex 10 år sen? Drar dagens mellanklassare mer än gårdagens dualgrafikkort, tex ett dualgpu-kort som Nvidia Geforce 7950GX2 från 2007? Finns det någon bra sida som listar grafikkortens strömförbrukning så man kan jämföra?

Bara nyfiken.

Permalänk
Medlem

Dagens grafikkort drar mindre och mindre (mellanklass). HighEnd korten drar ju lite mer självklart men är så mycket kraftigare idag än för tio år sedan.
Lite info som jag hittade: http://www.nordichardware.se/Grafikkort-Recensioner/svenska-g...

Visa signatur

"En superdator är en maskin som kör en ändlös slinga på bara två sekunder" - Okänd

Permalänk
Antielefant
Skrivet av anon114264:

Drar grafikkort mer ström än för tex 10 år sen? Drar dagens mellanklassare mer än gårdagens dualgrafikkort, tex ett dualgpu-kort som Nvidia Geforce 7950GX2 från 2007? Finns det någon bra sida som listar grafikkortens strömförbrukning så man kan jämföra?

Bara nyfiken.

För 10 år sedan släpptes Geforce 6000-serien (april 2004, mer specifikt) och detta var innan PCIe-"revolutionen". Strömförsörjningen till grafikkortet var begränsad till AGP-portar och molexkontakter vilket inte räckte så långt.
Geforce 6800 Ultra = AGP+1x4-pin = <90W
Faktisk förbrukning: ~80W

Sedan kom 7800-serien i mars 2005, men AGP+molex var fortfarande begränsande. 2006 uppdaterades serien med 7900-serien, vilken körde PCIe-portar, men kretsen var inte byggd för att utnyttja den kraftigare strömförsörjningen PCIe kunde ge.
Geforce 7950 GT = 1x6-pin = <150W
Faktisk förbrukning: ~85W

Senare under 2006 släpptes 8800-serien (G80, mer specifikt) vilken kunde utnyttja PCIe, vilket också märks både i väldigt mycket högre prestanda och betydligt högre strömförbrukning.
Geforce 8800 Ultra = 2x6-pin = <225W
Faktisk förbrukning: ~185W

Under 2007 uppdaterades 8000-serien med den nya kretsen G92 (GT, GTS) vilken drog upp prestanda/watt nämnvärt. Denna släpptes snart om som 9800-serien, en direkt rebrand utan någon skillnad i kislet alls. Detta är den första generationen av arkitekturen "Tesla".
Geforce 9800 GTX+ = 2x6-pin = <225W
Faktisk förbrukning: ~125W

2008 släpptes andra generationen Tesla, denna gång med den nya kodnamnsmodellen vi fortfarande känner igen. GT200 drog upp både prestanda och strömförbrukning, men egentligen inte nämnvärt på någondera front.
Geforce GTX 285 = 2x6-pin = <225W
Faktisk förbrukning: ~205W

2010 kom så Fermi, och GF100 är ökänd än idag för att dra enorma mängder ström... men inte minst för att 8-pins PCIe numera började bli vanliga på nätaggen också.
Geforce GTX 480 = 6+8-pin = <300W
Faktisk förbrukning: ~280W

...men redan hösten 2010 så släpptes GF110, GTX 500-serien, vilken både höjde prestandan och sänkte strömförbrukningen.
Geforce GTX 580 = 6+8-pin = <300W
Faktisk förbrukning ~240W

Och så är vi inne på dagens grafikkort, vilket började med kära "gamla" GK104 och GTX 680, också känt som GTX 770 (exakt samma GPU)...
Geforce GTX 680 = 6+6-pin = <225W
Faktisk förbrukning: ~195W

...och så GK110, det kort alla dreglar över.
Geforce GTX 780 Ti = 6+8-pin = <300W
Faktisk förbrukning: ~250W
(Titan Black har ganska precis samma strömförbrukning)

Med andra ord har ett grafikkort alltid dragit ungefär så mycket som det kan (får) göra. Det är inte konstigt, för även om prestanda per watt är intressant så innebär också att kräma på fler watt att man får ut mer prestanda. Och av alla saker i en dator där prestanda är en salupunkt finns det ingen som slår just grafikkortet.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Inaktiv
Skrivet av DatorMuppen:

Dagens grafikkort drar mindre och mindre (mellanklass). HighEnd korten drar ju lite mer självklart men är så mycket kraftigare idag än för tio år sedan.
Lite info som jag hittade: http://www.nordichardware.se/Grafikkort-Recensioner/svenska-g...

Tack men letar efter testar som exkluderar elkonsumtionen från resten av komponenterna i datorn förutom grafikkortet.

Skrivet av Zcenicx:

För 10 år sedan släpptes Geforce 6000-serien (april 2004, mer specifikt) och detta var innan PCIe-"revolutionen". Strömförsörjningen till grafikkortet var begränsad till AGP-portar och molexkontakter vilket inte räckte så långt.
Geforce 6800 Ultra = AGP+1x4-pin = <90W
Faktisk förbrukning: ~80W

Sedan kom 7800-serien i mars 2005, men AGP+molex var fortfarande begränsande. 2006 uppdaterades serien med 7900-serien, vilken körde PCIe-portar, men kretsen var inte byggd för att utnyttja den kraftigare strömförsörjningen PCIe kunde ge.
Geforce 7950 GT = 1x6-pin = <150W
Faktisk förbrukning: ~85W

Senare under 2006 släpptes 8800-serien (G80, mer specifikt) vilken kunde utnyttja PCIe, vilket också märks både i väldigt mycket högre prestanda och betydligt högre strömförbrukning.
Geforce 8800 Ultra = 2x6-pin = <225W
Faktisk förbrukning: ~185W

Under 2007 uppdaterades 8000-serien med den nya kretsen G92 (GT, GTS) vilken drog upp prestanda/watt nämnvärt. Denna släpptes snart om som 9800-serien, en direkt rebrand utan någon skillnad i kislet alls. Detta är den första generationen av arkitekturen "Tesla".
Geforce 9800 GTX+ = 2x6-pin = <225W
Faktisk förbrukning: ~125W

2008 släpptes andra generationen Tesla, denna gång med den nya kodnamnsmodellen vi fortfarande känner igen. GT200 drog upp både prestanda och strömförbrukning, men egentligen inte nämnvärt på någondera front.
Geforce GTX 285 = 2x6-pin = <225W
Faktisk förbrukning: ~205W

2010 kom så Fermi, och GF100 är ökänd än idag för att dra enorma mängder ström... men inte minst för att 8-pins PCIe numera började bli vanliga på nätaggen också.
Geforce GTX 480 = 6+8-pin = <300W
Faktisk förbrukning: ~280W

...men redan hösten 2010 så släpptes GF110, GTX 500-serien, vilken både höjde prestandan och sänkte strömförbrukningen.
Geforce GTX 580 = 6+8-pin = <300W
Faktisk förbrukning ~240W

Och så är vi inne på dagens grafikkort, vilket började med kära "gamla" GK104 och GTX 680, också känt som GTX 770 (exakt samma GPU)...
Geforce GTX 680 = 6+6-pin = <225W
Faktisk förbrukning: ~195W

...och så GK110, det kort alla dreglar över.
Geforce GTX 780 Ti = 6+8-pin = <300W
Faktisk förbrukning: ~250W
(Titan Black har ganska precis samma strömförbrukning)

Med andra ord har ett grafikkort alltid dragit ungefär så mycket som det kan (får) göra. Det är inte konstigt, för även om prestanda per watt är intressant så innebär också att kräma på fler watt att man får ut mer prestanda. Och av alla saker i en dator där prestanda är en salupunkt finns det ingen som slår just grafikkortet.

Tack för ett mycket informellt svar! Mycket uppskattat!

Det verkar vara ett trendbrott gällande strömförbrukningen när Nvidia G80 korten lanserades.