Den här nyheten är minst sagt svårläst. Ni blandar begrepp, fakta, åsikter och siffror hej vilt.
Skärpning, det här är inte pc för alla, bara för att ursprungsartikeln är undermålig behöver inte er nyhet hålla samma nivå.
För mig väcker det frustration att läsa igenom en sweclockersnyhet där jag som läsare inte kan dra några egna slutsater utan att använda google och läsa ursprungsartikeln. Som ni skrivit nu hade man lika gärna kunnat sammanfatta det till artikelförfattaren inte anser det vara värt besväret, vill ni bilda er en egen uppfattning, läs artikeln samt specifikationer för kortet.
Jag är ärligt talat förvånad över att w1zzard har lyckats komponera ihop maken till ovetenskapligt stycke, med tanke på hur länge han hållt på med grafikkort. Han hade kunnat dra massa intressanta slutsatser med tiden som lagts på att testa, istället kommer han inte fram till något som är värt att veta om man väljer mellan olika grafikkort.
Ni missar också ett antal väldigt viktiga punkter:
Självklart kommer förbrukningen skjuta i höjden om man ställer in kortet för att tillåta det.
Det är vanligt att användare ställer upp power limit i samband med överklockning om målet är maximal prestanda till vilken effektökning som helst. Däremot får kortet också en lägre effektivitet när man gör det. Det hade varit intressant att se prestanda-/effektskalning med en annan power limit som jämförelse.
Citat:
For each setting I determined maximum BF3-stable clocks
Detta är också något ni missat att ta med i nyheten, kortet är bara benchstabilt i BF3, varken mer eller mindre.
För en slutanvändare som ska använda kortet, är dessa siffror högst irrelevanta, det räcker med en solig dag eller att man startar ett annat spel för att det ska hänga sig. Givetvis är inte detta swec-redaktionens fel, men högst relevant för läsaren och det betyder också att man är tvungen att ta samtliga siffror med en stor nypa salt.
Citat:
As you can see, power ramps up very quickly, much faster than maximum clock or performance. From stock to +144 mV, the power draw increases by 31%, while overclocking potential goes up only by 7%, and real-life performance increases by only 3%.
Här anser jag att ni bör skjuta in "redaktionens anmärkning, +144mV (+12%), annars blir hela citatet värdelöst eftersom det inte säger något om man inte känner till originalspänningen och vill räkna på det.
För mig som personligen inte är fånigt intresserad av FuryX får jag antingen hoppa över hela stycket eller googla fram originalspänning och beräkna procentuell skillnad för att kunna ta till mig av vad som står citerat.
(standardspänning är 1.2v, en ökning med +144mV blir 1.344v, alltså +12%).
Men låt oss strunta i att jag tycker det är svårläst, finns det överhuvudtaget något värde i det som står citerat?
Prestandaökningen när man endast skruvar upp GPU-frekvensen är "bara" 3% vid 7% OC av GPUn. Men det är vid okända inställningar i 4K på BF3. Vi kan anta att BF3 inte bör vara särskilt GPU-tungt för ett modernt kort och det lär inte heller vara GPU-bundet i 4K.
Således kan vi förvänta oss en låg överklockningseffektivitet vid GPU-överklockning, såvida inte grafikkortet skulle vara helt GPU-bundet i 4K på BF3. Att FuryX skulle flaska i BF3@4K på grund av för låg gpu-frekvens känns långsökt.
Men oavsett vad vi anser om 3% prestandaökning, så har vi faktiskt inte en susning om det är bra eller dåligt.
Hade vi fått 7% prestandaökning av 7% frekvensökning så hade det betytt att GPU-frekvensen var en enorm flaskhals och AMD hade gjort ett dåligt jobb i att balansera kortet. Hade prestandaökningen varit 0% så hade minnet (eller datorns CPU) varit flaskhalsen istället.
Min enkla slutsats, utan att testa massor, blir därför att 3% borde vara en bra siffra som tyder på att kortet varken är GPU-bundet eller minnesbundet i BF3-testet.
Men låt oss säga att vi anser att 3% är dåligt, vad jämför vi mot? Är det någon som på rak arm vet vad 7% frekvensökning på ett 980ti hade gett för prestandaökning i detta ospecificerade BF3-test?
Ett bättre test hade varit att öka både GPU och minne med 10% på två olika grafikkort och se hur de skalar.
Då hade man kunnat dra slutsatser om arkitekturerna vid låg CPU-last eller drivrutinerna vid hög CPU-last.
Om man är intresserad av ren GPU-prestanda hade ett syntetiskt test som fokuserar på GPU-beräkningar varit bättre. Då syns det tydligt hur GPUn skalar med frekvens, utan att blanda in felkällor som minnesbandbredd, spelinställningar, CPU-frekvens eller liknande. Ett sådant test skulle också ge ett mätetal som går att reproducera och jämföra mot andra grafikkort.
Tyvärr har artikelförfattaren inte ens gjort några tester när endast minnet överklockas, så vi får inte veta hur mycket prestandan skalar vid minnesökning, endast vid GPU-ökning.
Däremot har författaren testat följande:
1150/560, dvs 9.5% / 12% - prestandaökning 8.25%
1215/560, dvs 15.7% / 12%. - prestandaökning 11%
Med dessa siffror kan man dra slutsatsen att en frekvensökning av 12% på både GPU och minne borde ge någonstans mellan 8.25% och 11% mer prestanda. Genomsnittet av de två blir 9.5%.
Med andra ord får grafikkortet ut mer än 75% effektivitet av överklockningen. Personligen tycker jag inte detta låter fy skam, men det går faktiskt inte att jämföra mot andra kort eftersom testerna inte går att reproducera.
Citat:
Att höja spänningen och skruva upp klockfrekvenserna ger i vanlig ordning en mer eller mindre linjär prestandaökning, men strömförbrukningen skjuter i höjden och når extrema nivåer.
"men strömförbrukningen skjuter i höjden och når extrema nivåer."
Ursäkta va? Strömförbrukningen är helt enligt förväntan. För många år sedan var det inte ovanligt att läsa förenklade effektkalkyler på Sweclockers, är denna kunskap numera helt bortglömd?
Effektkalkylen brukade se ut så här:
Effektuttag = TDP * ( Överklockad frekvens / standardfrekvens) * ( Spänning ökad / spänning standard )^2
Den här formeln tar inte hänsyn till ökat läckage till följd av temperaturförändringar, men som tur är finns det knappt några temperaturförändringar i de tester som har gjorts. Så låt oss testa om kalkylen håller.
Eftersom artikeln inte testar kortet med standardinställningar kommer jag utgå från när de kör +0mV.
Vi kan kalla följande för "stock", 1150Mhz, 1.2v, drygt 450w förbrukning.
Jag använder sedan den OC som presterar högst: 1215MHz, 1.344v, knappt 600w
Låt oss stoppa in siffrorna och se om det stämmer:
Effekt = 450w * (1215MHz/1150Mhz) * (1.344v/1.2v)^2 = 596w
Det här stämmer som synes mycket väl. Det är alltså helt felaktigt att påstå "strömförbrukningen skjuter i höjden och når extrema nivåer." Strömförbrukningen är precis vad den förväntas vara, varken mer eller mindre.
Citat:
Att överklocka grafikprocessorn till dryga 1 200 MHz (1,35 V) ger endast tre extra bildrutor per sekund i Battlefield 3.
Analogt är att säga följande; Att trimma motorn till 200 hästar (2 bar) ger endast 5km/h högre genomsnittsfart på min hemliga testbana.
Jag hoppas ni själva förstår att den meningen inte betyder någonting, såvida inte läsaren skulle ha full koll på originalfrekvens, originalspänning, upplösning, inställningar och testmetod för Battlefield 3. Det minsta ni kan göra, är att ta reda på procentuell prestandaskillnad i spelet och upplösning, övriga specifikationer kan man åtminstone råka känna till sedan tidigare.
Som jag tidigare nämnt kan man inte heller dra slutsatsen att ett lågt värde skulle vara dåligt, alltså är "endast 3 extra bildrutor" en värdering från er sida, inte ett mått på huruvida det är bra eller dåligt.
Jag skulle verkligen vilja att ni på sweclockers skriver nyheter där det som står faktiskt betyder något.
Exempelvis skulle ni kunna formulera något i följande stil:
Att överklocka GPUn med 10% resulterar i en prestandaökning på 2% för BF3 @ okända inställningar @ 4K.
För att uppnå denna frekvensökning krävdes en spänningsökning på 20%, något som får effektåtgången att stiga med 33%.
Låter det för matematiskt, så går det alltid att formulera snällare;
För att överklocka GPUn från originalfrekvensen på 1.05GHz till 1.2GHz behöver spänningen ökas med +0.14v, från 1.2v till 1.34v.
Detta ger en försumbar prestandaökning i BF3@4K från 60 till 63fps medan grafikkortets energiförbrukning ökar signifikant från 450w till 600w.
Här kan det också vara läge att påpeka för läsaren att effektökningen inte har något att göra med att AMD är dåliga utan är fullständigt normal. Om något så är effektökningen riktigt bra, eftersom vattenkylningen står pall för 600w värme och därmed håller läckaget på kretsen i schack. Gör man motsvarande jämförelse på ett luftkylt kort är jag övertygad om att det inte ser lika fint ut.
Citat:
Samtidigt ökar datorsystemets strömförbrukningen med inte mindre än 150 W i jämförelse med standardinställningarna.
Det här är överhuvudtaget inte sant, standardinställningarna är inte testade och power limit är satt till +50%.
Men även om standardinställningarna kördes så hade det varit bättre att säga vad kortet ökade från och vad det ökade till.
Dvs, förbrukningen ökade från 450w till 600w eller förbrukningen ökade med 33%, istället för att skriva "+150w".
Den enda som skulle bry sig om i fall hårdvaran drar "+150w" är den som redan har ett FuryX i datorn och vet att hans/hennes nätdel bara fixar 146w mer i last. Resten av oss är nog mer intresserade av grafikkortets totalförbrukning eller hur strömförbrukningen skalar.
Citat:
Det leder till såpass hög värmeutveckling att komponenterna riskerar att skadas.
Här väljer ni att föra vidare skribentens subjektiva åsikter, varför? Artikelförfattaren säger detta utan att själv ha tagit reda på specifikationer från AMD eller VRM-komponenterna.
Citat:
That much heat on the VRMs is definitely not good for long-term use.
Så länge det inte finns några belägg för att livstiden förkortas så pass att det skulle spela någon roll för en överklockare eller genomsnittsanvändare (som köper kortet i andra hand) så bör vi inte basunera ut FARLIGT FARLIGT utan att ha belägg för det.
De flesta av oss känner till att all temperaturökning och effektökning är dåligt för halvledarkomponenter. Att livslängden förkortas är en självklarhet, vad som spelar roll är om detta kommer påverka användaren. En livslängdsförkortning från 20 till 8 år är något som inte rör de flesta användare i ryggen. Om det inte är stor risk för att kortets livstid skulle reduceras till <5 år, finns det ingen anledning att varna.
Ska vi varna för all potentiell livstidsförkortning kanske det är dags att påpeka för läsarna att de inte ska starta datorn i onödan, då all användning leder till slitage och förkortad livslängd. Ingen dator håller så länge som den som aldrig används.
Det handlar alltså om att ge läsaren ett mervärde i form av kunskap och möjlighet att själv avgöra om risken är värd att ta eller inte. Skräckpropaganda utan baktanke hör hemma i kvällstidningarna.
Citat:
Inte helt oväntat är slutsatsen att överklockare inte har särskilt mycket att hämta utan bör ta det lilla lugna med AMD:s senaste värstingmodell.
I min värld är 75% effektivitet av frekvensökningen i prestanda ganska bra, särskilt i ett så pass gammalt spel.
Så länge ni på sweclockers inte har något belägg för att tidigare generationer från AMD fick 85% eller 980ti får ut 85% bör vi inte lägga någon värdering eller föra vidare artikelförfattarens subjektiva åsikter.
För att sammanfatta vad artikeln har kommit fram till:
Vid överklockning stiger effekten normalmycket.
Effekt är varmt. Överklockning ger högre effekt. Högre effekt ger kortare livslängd.
Överklockning av BARA GPUn ger en prestandaökning som är hälften så stor som frekvensökningen i BF3@4K@Okända inställningar.
Jag hade inte släppt igenom den här artikeln om jag var skribent på techpowerup och jag hade funderat både en och tre gånger vad ni på swec tror att ni vidareförmedlar till medlemmarna med nyheter som dessa.
Och för att avsluta, nej, jag är inte AMD-fanboy, jag vill bara kräkas när jag ser så mycket brister på en gång.
Det finns så många möjligheter att göra en fantastisk jämförelse och dra riktiga slutsatser, men istället är det en sifferorgie som inte säger någonting om man vill jämföra arktitekturer, förstå energiförbrukning eller ens om man vill använda ett Fury X.
Det är ovetenskapligt, rörigt och otydligt.
Allt denna artikeln har gjort klart för oss är att ett överklockat Fury X kan dra upp mot 600w och att kylaren hanterar det utmärkt. I övrigt är allting business as usual, 980ti överklockar bättre och presterar högre till lägre effekt.