Citat:
Ursprungligen inskrivet av Goosen
Om man sedan läser texten, står det:
"This test heavily loads the GPU while being very light on the rest of the system so that we can get as clear a picture of relative GPU power draw as possible. Playing games will incur much higher system level power draw as the CPU, memory, drives and other hardware may also start to hit their own peak power draw at the same time."
Vilket betyder att det behövs mer kraft som vi kan kalla X. Dessutom ger inte nätaggreget 100 %, ett bra ger ungefär 85 %.
Alltså behövs ett agg med minst (420+X)/0,85 vilket ger 494 + X/0,85. Känns som minst 620 helst 750 skulle jag uppskatta de till. Ska man klocka behövs såklart mer...
Du har en poäng i att de inte belastar CPU särskilt mycket i detta test, men å andra sidan så verkar de som om de mäter på primärsidan av nätaggregatet (den sidan som drar kraft från elnätet), alltså inte på sekundärsidan som komponenterna drar kraft från. Då effektiviteten hos nätaggregat är 80-85% i dagsläget, så medför det att komponenterna i själva verket drar 15-20% mindre effekt än vad som angivits. (vilket ger att den mest effektkrävande kombinationen drar 508W*0.8=407W till 508W*0.85=432W från nätaggregatet)
Du har även missuppfattat det där med effektivitet, märkningen på 80+ anger hur effektivt nätaggregatet omvandlar växelström till likström. Om komponenterna drar 300W, så dras alltså 1.20*300W=360W (om aggregatet har 80% effektivitet i det angivna effektområdet) från elnätet. Om du har ett aggregat som är märkt med 500W (ett kvalitetsaggregat, som håller angiven effekt alltså) och dina komponenter lyckas dra 500W, så ger aggregatet 500W, men det dras 500*1,20 = 600W från elnätet (resten avges i form av värme av aggregatet).
Märkningen anger alltså hur mycket effekt som komponenterna får dra från aggregatet, inte hur mycket aggregatet får dra från elnätet.
Högkvalitativa aggregat kan ofta ge mer effekt än vad de är uppmärkta med, medan noname-aggregat ofta inte klarar av att ge den effekt än de är specade för. Detta har dock inget att göra med effektiviteten hos aggregatet, utan är en följd av att det inte finns en fastlagd standard för vid vilken temperatur man skall göra effektmätningen och det är inte angivet om det är max peaklast eller max kontinuerlig last som skall anges.
Kvalitetsaggregat är märkta med vad aggregatet klarar att ge vid 45-50°C och de anger maximal kontinuerlig last (den last som aggregatet maximalt klarar av under kontinuerlig drift).
Mindre nogräknade tillverkare anger istället maxlast vid 20-25°C (ett aggregat klarar av att leverera 1-3W mindre per grad som temperaturen stiger) och dessutom max peakvärde för effekten (maximalt värde som aggregatet klarar av under en kort tid på någon/några sekunder).
Detta leder till att ett kvalitetsaggregat märkt 500W kanske klarar 570W, medan ett noname aggregat klarar 350W kontinuerlig maxeffekt vid 45°C.
Här är ett typexempel på vad jag menar Corsair XV450 vs Huntkey 450W. Två aggregat märkta med 450W uteffekt.
Corsair:
http://www.hardwaresecrets.com/article/540/9
Huntkey:
http://www.hardwaresecrets.com/article/527/8
Men man kan inte heller titta på testet och säga, OK ett 520W aggregat räcker för alla system, utan man bör lägga sig en bit över vad som systemet drar vid last. Dels är effektiviteten för aggregatet bäst mellan ~40-70% av märkvärdet och dels så drar de olika komponenterna från olika spänningslinor. Du kan alltså maxa ut en lina trots att totallasten underskrider vad aggregatet egentligen klarar att ge.
Detta sagt så klarar ett högkvalitativt aggregat på 650W av de flesta Crossfire och SLI system idag. (börjar man med mängder av hårddiskar, eller kör med tre eller fler effektkrävande grafikkort får man titta efter kraftigare aggregat). Men standard SLI/Crossfiresystem funkar bra.