Radeon Fury X uppvisar extrem strömförbrukning vid överklockning

Permalänk
Medlem
Skrivet av Broken-arrow:

Stod 1440+ Pluset betyder att AMD blir något bättre i högre upplösningar.

Jag såg pluset, men när jag samt mer eller mindre alla jag känner använder + på det sättet betyder det "och högre/eller mer". Om man ska slå "3+" på en tärning betyder det att man ska slå en "3:a eller mer".

Vilket betyder att när du skriver "AMD presterar bättre i 1440+" säger du att AMD presterar bättre i 1440p (och högre) - vilket jag som sagt inte riktigt håller med om.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av Broken-arrow:

Stod 1440+ Pluset betyder att AMD blir något bättre i högre upplösningar.

Det låter på vissa här som om Fury über-presterade i 4k och skulle vara DET självklara valet i den upplösningen.

Nämnas bör att de fabriksöverklockade 980ti-korten ovan i regel har OC-potential kvar.

Det har också skrivits en del om spelupplevelsen med Fury i 4k. Bl.a. här på Sweclockers av @Yoshman:

Skrivet av Yoshman:

Vet inte vad du tittar på i de länkar jag ger, men slutsatsen i testet jag länkar till är denna

"We saw substantially smoother gaming across our suite of eight test scenarios out of the GeForce GTX 980 than we did from the Radeon R9 Fury. This outcome will be nothing new for those folks who have been paying attention. Nvidia has led in this department for some time now. I continue to believe this gap is probably not etched into the silicon of today's Radeons. "

Läser du vad man skriver (och liknande finns i AnandTech och Gamers Nexus tester) så är problemet inte genomsnittlig FPS, problemet är att AMDs kort får problem i scener där det händer mycket och i dessa fall droppar Fury X under referens 980 (notera 980, inte 980ti) även i 4k. Läser du längre ner i slutsatsen nämner man att deras subjektiva upplevelse stämmer överens med de uppmätta värdera, 980 upplevdes bättre än Fury X även i 4k och det trots att Fury X har bättre genomsnittlig FPS.

Huruvida just detta är något som löser sig i DX12 återstår att se, har för mig att bl.a. AnandTech (eller möjligen TomsHardware) skrev något om att de titlar som har stöd för Mantle fick något högre genomsnittlig FPS men problemet med den stora variansen kvarstod även där, något som eventuellt pekar på att problemet är HW-relaterat. En annan vink om att det kan var HW-problem är att Tahiti-kretsen inte har samma dippar, så är inte alls lika säker som TR om att detta inte är etsat i kretsen (men har inga bevis så säger inget med säkerhet).

Den andra länken visar ju rätt mycket att AMDs nuvarande (vem vet vad som händer i framtiden) drivare äter rejält mycket mer CPU jämfört med Nvidias nuvarande drivare i nuvarande titlar. I praktiken går detta problem att "lösa" genom att ha så pass kraftig CPU att GPU-delen ändå är flaskhals, vi har också sett att på en sådan konfiguration gav Mantle i stort sett ingenting så vet inte riktigt hur man kan förvänta sig stordåd från DX12.

Första länken visar också att 970 och 290X i stort sätt uppvisar identisk antal draw-calls, d.v.s. ingen fördel för någon. Star Swarm är en benchmark som togs fram specifikt som demo för hur bra Mantle är, så man kan inte hävda att den är designad för Nvidia/Maxwell. Runt februari i år fick även denna teknikdemo stöd för DX12 och då uppvisade 980 ~50% bättre prestanda än 290X.

Nu skulle jag säga att man absolut inte ska dra några växlar på vilket kort som kommer vara bättre i riktiga DX12 spel, men ser inget test som visar att AMD på något sätt gynnas mer av DX12 än Nvidia. Relativt sett ökar prestanda mer i 3D Mark testet då DX11 prestanda är bedrövligt för AMD och absolutvärdet i DX12 är att 970 och 290X är likvärdiga. Vi har sett i spel att "draw calls" inte är en flaskhals i dagens spel, inte ens på AMDs kort givet att man har en Intel i5 eller bättre.

Håller du inte med om att mätdata visar att idag har Nvidia bättre drivare för DX11, de hanterar "svåra" scener bättre (bättre lägstavärde för den procent med tyngsta scener i aktuella spel)? Mot den bakgrunden har jag svårt att se hur Nvidias övertag idag kan förklaras (enbart) med bättre PR.

Visa signatur

VCS 2600 + E.T. New Mexico Edition

Permalänk

Jag är glad att jag valde 980 Ti för furyX med så lite på överklock. Och en ström förbrukning som får Ringhals att likna en sandlåda.

Visa signatur

Min dator
"Delid" I7 4790K@4.8Ghz 1.390v adaptiv volt + 16GB Gskill TridentX cl 9 2400mhz Vattenkylning EK-Supremacy naked Ivy mount. SLI 2xEvga GTX 980 Ti 6GB SC+ ACX 2.0 [Evga supernova P2 1000w]Min spel burk Corsair 900D

Permalänk
Medlem

Hej så fort du minskar powerlimitid så minskar gpu frekvensen (mitt kort -50% ger ca 730Mhz)

Jag tycker det är märkligt. Det är väldigt få som har några Fury X kort här och det finns inga att köpa. Har AMD slutat att leverera kort??

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Gunner357:

Jag är glad att jag valde 980 Ti för furyX med så lite på överklock. Och en ström förbrukning som får Ringhals att likna en sandlåda.

Jag valde mellan 980TI och fury X. Jag valde Fury X pågrund av att AMD brukar trolla fram mer prestanda för varje år. Men visar det sig att man bara når 1200Mhz(24/7 oc) så är frågan om inte Nvidias kort är starkare även om ett år.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Hampus666:

De sa ju att fury x kortet skulle vara överklockarens dröm när de presenterade kortet.
Hur kan de gå ut med det ?

kanske menade att man kommer drömma om att överklocka?

Permalänk
Skrivet av sesese:

Jag valde mellan 980TI och fury X. Jag valde Fury X pågrund av att AMD brukar trolla fram mer prestanda för varje år. Men visar det sig att man bara når 1200Mhz(24/7 oc) så är frågan om inte Nvidias kort är starkare även om ett år.

Och jag kommer upp i 1467Mhz 24/7oc och de finns dom som är upp i 1500Mhz o över.

Visa signatur

Min dator
"Delid" I7 4790K@4.8Ghz 1.390v adaptiv volt + 16GB Gskill TridentX cl 9 2400mhz Vattenkylning EK-Supremacy naked Ivy mount. SLI 2xEvga GTX 980 Ti 6GB SC+ ACX 2.0 [Evga supernova P2 1000w]Min spel burk Corsair 900D

Permalänk
Medlem

Vad i helv... Battlefield 3? Och jag tycker det är illa när dom gör tester på Tomb Raider.

Visa signatur

Intel i5 2500k @ 4.5 GHz
Sapphire Radeon R9 290 Tri-X
Nåt annat skit

Permalänk
Medlem
Skrivet av Xiqt:

Beror såklart på vad man jämför med men mina 980 Ti klockar med en procentökning på mellan 30-37%

Skrivet av Xiqt:

Average; på 7950
1121/1539MHz luft
1222/1748MHz vatten
1324/1863MHz LN2

Men om 7950 ligger på 800Mhz som standard så innebar en överklockning med luftkylning till 1121Mhz en 40% ökning.
Detta tycker jag faktiskt inte man kan kalla dåligt och jämför man med dina 980 Ti så är det ju faktiskt bättre

Permalänk
Medlem
Skrivet av Gunner357:

Jag är glad att jag valde 980 Ti för furyX med så lite på överklock. Och en ström förbrukning som får Ringhals att likna en sandlåda.

Att strömförbrukningen skenar är knappast något som AMD är ensamma om. Sedan att just Fury X "fiji" inte överklockar bra eller skalar bra med volt ökning är en annan femma. Visste du att Kepler generellt svarar otroligt mycket bättre än Maxwell när det gäller överklockning.

Med Maxwell är det ASIC "leakage" som sätter stopp även om man ökar volten. För att klocka riktigt högt utan subzero kylning med Maxwell erfordras nästan alltid låg leagage kort. Detta pga att kretsarna skalar dåligt med volt ökning och dem flesta slutar kring 1.28v. Medans Kepler kan överklocka högre och högre så länge kortet kyls.

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk

Det är en väldig kritik och dålig press på Swec om Fury X , man kan lätt få känslan av att man försöker göra reklam för Nvidia samtidigt som man pekar finger emot AMD.

Jag sitter på 2st Fury X , uppgraderade ifrån 2st 980.

Vad jag kan säga utifrån mina egna upplevelser och erfarenhet med dessa kort är att dom är riktigt stabila och kraftfulla det är klart bättre än min förra setup med 980!
Just att korten är så stabil i CF är den största fördelen.
Korten i MIN dator presterar i överlag bättre än 980ti och i vissa fall likadant och i väldigt få fall sämre.

Jag kanske har fått två super exemplar eller så är korten helt enkelt väldigt bra i vilket fall så är jag nöjd

Visa signatur

NZXT H440W New Edition , Intel Core i7-6700K ,HyperX Predator 3000MHz 32GB ,CORSAIR RM850x ,2 x R9 NANO ,MSI Z170A GAMING M9 ACK, Samsung 950 PRO 256GB M.2, SEAGATE BARRACUDA 3TB , Intel TS15A CPU Air Cooler.

Permalänk
Medlem
Skrivet av iCannot:

Det låter på vissa här som om Fury über-presterade i 4k och skulle vara DET självklara valet i den upplösningen.

http://cdn.sweclockers.com/artikel/diagram/10290?key=722583b84b36ff8655ed32f15582c4a7

Nämnas bör att de fabriksöverklockade 980ti-korten ovan i regel har OC-potential kvar.

Det har också skrivits en del om spelupplevelsen med Fury i 4k. Bl.a. här på Sweclockers av @Yoshman:

Självklart, idag finns inget singelkort som ger 60FPs i 4k inte i ultra i alla fall.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Permalänk
Skrivet av Tobbbe__:

Att strömförbrukningen skenar är knappast något som AMD är ensamma om. Sedan att just Fury X "fiji" inte överklockar bra eller skalar bra med volt ökning är en annan femma. Visste du att Kepler generellt svarar otroligt mycket bättre än Maxwell när det gäller överklockning.

Med Maxwell är det ASIC "leakage" som sätter stopp även om man ökar volten. För att klocka riktigt högt utan subzero kylning med Maxwell erfordras nästan alltid låg leagage kort. Detta pga att kretsarna skalar dåligt med volt ökning och dem flesta slutar kring 1.28v. Medans Kepler kan överklocka högre och högre så länge kortet kyls.

Sammanfattade värdena i mitt tidigare inlägg.

http://i.imgur.com/W4AtRxX.png

http://i.imgur.com/Ztu2Clo.png

Jag har ASIC värde på ca 68 om jag inte minns fel sist jag kollade. Då borde jag kunna klocka lite till bara jag får på blocket nån gång + lite volt mod.

Visa signatur

Min dator
"Delid" I7 4790K@4.8Ghz 1.390v adaptiv volt + 16GB Gskill TridentX cl 9 2400mhz Vattenkylning EK-Supremacy naked Ivy mount. SLI 2xEvga GTX 980 Ti 6GB SC+ ACX 2.0 [Evga supernova P2 1000w]Min spel burk Corsair 900D

Permalänk
Medlem
Skrivet av Gunner357:

Jag har ASIC värde på ca 68 om jag inte mins fel sist jag kollade. Då borde jag kunna klocka lite till bara jag får på blocket nån gång + lite volt mod.

Läs denna

http://linustechtips.com/main/topic/412778-some-words-from-vi...

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Medlem

Den här nyheten är minst sagt svårläst. Ni blandar begrepp, fakta, åsikter och siffror hej vilt.
Skärpning, det här är inte pc för alla, bara för att ursprungsartikeln är undermålig behöver inte er nyhet hålla samma nivå.

För mig väcker det frustration att läsa igenom en sweclockersnyhet där jag som läsare inte kan dra några egna slutsater utan att använda google och läsa ursprungsartikeln. Som ni skrivit nu hade man lika gärna kunnat sammanfatta det till artikelförfattaren inte anser det vara värt besväret, vill ni bilda er en egen uppfattning, läs artikeln samt specifikationer för kortet.

Jag är ärligt talat förvånad över att w1zzard har lyckats komponera ihop maken till ovetenskapligt stycke, med tanke på hur länge han hållt på med grafikkort. Han hade kunnat dra massa intressanta slutsatser med tiden som lagts på att testa, istället kommer han inte fram till något som är värt att veta om man väljer mellan olika grafikkort.

Ni missar också ett antal väldigt viktiga punkter:

Citat:

power limit set to +50%

Självklart kommer förbrukningen skjuta i höjden om man ställer in kortet för att tillåta det.

Det är vanligt att användare ställer upp power limit i samband med överklockning om målet är maximal prestanda till vilken effektökning som helst. Däremot får kortet också en lägre effektivitet när man gör det. Det hade varit intressant att se prestanda-/effektskalning med en annan power limit som jämförelse.

Citat:

For each setting I determined maximum BF3-stable clocks

Detta är också något ni missat att ta med i nyheten, kortet är bara benchstabilt i BF3, varken mer eller mindre.
För en slutanvändare som ska använda kortet, är dessa siffror högst irrelevanta, det räcker med en solig dag eller att man startar ett annat spel för att det ska hänga sig. Givetvis är inte detta swec-redaktionens fel, men högst relevant för läsaren och det betyder också att man är tvungen att ta samtliga siffror med en stor nypa salt.

Citat:

As you can see, power ramps up very quickly, much faster than maximum clock or performance. From stock to +144 mV, the power draw increases by 31%, while overclocking potential goes up only by 7%, and real-life performance increases by only 3%.

Här anser jag att ni bör skjuta in "redaktionens anmärkning, +144mV (+12%), annars blir hela citatet värdelöst eftersom det inte säger något om man inte känner till originalspänningen och vill räkna på det.

För mig som personligen inte är fånigt intresserad av FuryX får jag antingen hoppa över hela stycket eller googla fram originalspänning och beräkna procentuell skillnad för att kunna ta till mig av vad som står citerat.
(standardspänning är 1.2v, en ökning med +144mV blir 1.344v, alltså +12%).

Men låt oss strunta i att jag tycker det är svårläst, finns det överhuvudtaget något värde i det som står citerat?
Prestandaökningen när man endast skruvar upp GPU-frekvensen är "bara" 3% vid 7% OC av GPUn. Men det är vid okända inställningar i 4K på BF3. Vi kan anta att BF3 inte bör vara särskilt GPU-tungt för ett modernt kort och det lär inte heller vara GPU-bundet i 4K.
Således kan vi förvänta oss en låg överklockningseffektivitet vid GPU-överklockning, såvida inte grafikkortet skulle vara helt GPU-bundet i 4K på BF3. Att FuryX skulle flaska i BF3@4K på grund av för låg gpu-frekvens känns långsökt.

Men oavsett vad vi anser om 3% prestandaökning, så har vi faktiskt inte en susning om det är bra eller dåligt.
Hade vi fått 7% prestandaökning av 7% frekvensökning så hade det betytt att GPU-frekvensen var en enorm flaskhals och AMD hade gjort ett dåligt jobb i att balansera kortet. Hade prestandaökningen varit 0% så hade minnet (eller datorns CPU) varit flaskhalsen istället.
Min enkla slutsats, utan att testa massor, blir därför att 3% borde vara en bra siffra som tyder på att kortet varken är GPU-bundet eller minnesbundet i BF3-testet.

Men låt oss säga att vi anser att 3% är dåligt, vad jämför vi mot? Är det någon som på rak arm vet vad 7% frekvensökning på ett 980ti hade gett för prestandaökning i detta ospecificerade BF3-test?

Ett bättre test hade varit att öka både GPU och minne med 10% på två olika grafikkort och se hur de skalar.
Då hade man kunnat dra slutsatser om arkitekturerna vid låg CPU-last eller drivrutinerna vid hög CPU-last.

Om man är intresserad av ren GPU-prestanda hade ett syntetiskt test som fokuserar på GPU-beräkningar varit bättre. Då syns det tydligt hur GPUn skalar med frekvens, utan att blanda in felkällor som minnesbandbredd, spelinställningar, CPU-frekvens eller liknande. Ett sådant test skulle också ge ett mätetal som går att reproducera och jämföra mot andra grafikkort.

Tyvärr har artikelförfattaren inte ens gjort några tester när endast minnet överklockas, så vi får inte veta hur mycket prestandan skalar vid minnesökning, endast vid GPU-ökning.

Däremot har författaren testat följande:
1150/560, dvs 9.5% / 12% - prestandaökning 8.25%
1215/560, dvs 15.7% / 12%. - prestandaökning 11%

Med dessa siffror kan man dra slutsatsen att en frekvensökning av 12% på både GPU och minne borde ge någonstans mellan 8.25% och 11% mer prestanda. Genomsnittet av de två blir 9.5%.

Med andra ord får grafikkortet ut mer än 75% effektivitet av överklockningen. Personligen tycker jag inte detta låter fy skam, men det går faktiskt inte att jämföra mot andra kort eftersom testerna inte går att reproducera.

Citat:

Att höja spänningen och skruva upp klockfrekvenserna ger i vanlig ordning en mer eller mindre linjär prestandaökning, men strömförbrukningen skjuter i höjden och når extrema nivåer.

"men strömförbrukningen skjuter i höjden och når extrema nivåer."
Ursäkta va? Strömförbrukningen är helt enligt förväntan. För många år sedan var det inte ovanligt att läsa förenklade effektkalkyler på Sweclockers, är denna kunskap numera helt bortglömd?

Effektkalkylen brukade se ut så här:
Effektuttag = TDP * ( Överklockad frekvens / standardfrekvens) * ( Spänning ökad / spänning standard )^2

Den här formeln tar inte hänsyn till ökat läckage till följd av temperaturförändringar, men som tur är finns det knappt några temperaturförändringar i de tester som har gjorts. Så låt oss testa om kalkylen håller.

Eftersom artikeln inte testar kortet med standardinställningar kommer jag utgå från när de kör +0mV.
Vi kan kalla följande för "stock", 1150Mhz, 1.2v, drygt 450w förbrukning.

Jag använder sedan den OC som presterar högst: 1215MHz, 1.344v, knappt 600w

Låt oss stoppa in siffrorna och se om det stämmer:
Effekt = 450w * (1215MHz/1150Mhz) * (1.344v/1.2v)^2 = 596w

Det här stämmer som synes mycket väl. Det är alltså helt felaktigt att påstå "strömförbrukningen skjuter i höjden och når extrema nivåer." Strömförbrukningen är precis vad den förväntas vara, varken mer eller mindre.

Citat:

Att överklocka grafikprocessorn till dryga 1 200 MHz (1,35 V) ger endast tre extra bildrutor per sekund i Battlefield 3.

Analogt är att säga följande; Att trimma motorn till 200 hästar (2 bar) ger endast 5km/h högre genomsnittsfart på min hemliga testbana.

Jag hoppas ni själva förstår att den meningen inte betyder någonting, såvida inte läsaren skulle ha full koll på originalfrekvens, originalspänning, upplösning, inställningar och testmetod för Battlefield 3. Det minsta ni kan göra, är att ta reda på procentuell prestandaskillnad i spelet och upplösning, övriga specifikationer kan man åtminstone råka känna till sedan tidigare.

Som jag tidigare nämnt kan man inte heller dra slutsatsen att ett lågt värde skulle vara dåligt, alltså är "endast 3 extra bildrutor" en värdering från er sida, inte ett mått på huruvida det är bra eller dåligt.

Jag skulle verkligen vilja att ni på sweclockers skriver nyheter där det som står faktiskt betyder något.

Exempelvis skulle ni kunna formulera något i följande stil:
Att överklocka GPUn med 10% resulterar i en prestandaökning på 2% för BF3 @ okända inställningar @ 4K.
För att uppnå denna frekvensökning krävdes en spänningsökning på 20%, något som får effektåtgången att stiga med 33%.

Låter det för matematiskt, så går det alltid att formulera snällare;
För att överklocka GPUn från originalfrekvensen på 1.05GHz till 1.2GHz behöver spänningen ökas med +0.14v, från 1.2v till 1.34v.
Detta ger en försumbar prestandaökning i BF3@4K från 60 till 63fps medan grafikkortets energiförbrukning ökar signifikant från 450w till 600w.

Här kan det också vara läge att påpeka för läsaren att effektökningen inte har något att göra med att AMD är dåliga utan är fullständigt normal. Om något så är effektökningen riktigt bra, eftersom vattenkylningen står pall för 600w värme och därmed håller läckaget på kretsen i schack. Gör man motsvarande jämförelse på ett luftkylt kort är jag övertygad om att det inte ser lika fint ut.

Citat:

Samtidigt ökar datorsystemets strömförbrukningen med inte mindre än 150 W i jämförelse med standardinställningarna.

Det här är överhuvudtaget inte sant, standardinställningarna är inte testade och power limit är satt till +50%.
Men även om standardinställningarna kördes så hade det varit bättre att säga vad kortet ökade från och vad det ökade till.
Dvs, förbrukningen ökade från 450w till 600w eller förbrukningen ökade med 33%, istället för att skriva "+150w".

Den enda som skulle bry sig om i fall hårdvaran drar "+150w" är den som redan har ett FuryX i datorn och vet att hans/hennes nätdel bara fixar 146w mer i last. Resten av oss är nog mer intresserade av grafikkortets totalförbrukning eller hur strömförbrukningen skalar.

Citat:

Det leder till såpass hög värmeutveckling att komponenterna riskerar att skadas.

Här väljer ni att föra vidare skribentens subjektiva åsikter, varför? Artikelförfattaren säger detta utan att själv ha tagit reda på specifikationer från AMD eller VRM-komponenterna.

Citat:

That much heat on the VRMs is definitely not good for long-term use.

Så länge det inte finns några belägg för att livstiden förkortas så pass att det skulle spela någon roll för en överklockare eller genomsnittsanvändare (som köper kortet i andra hand) så bör vi inte basunera ut FARLIGT FARLIGT utan att ha belägg för det.

De flesta av oss känner till att all temperaturökning och effektökning är dåligt för halvledarkomponenter. Att livslängden förkortas är en självklarhet, vad som spelar roll är om detta kommer påverka användaren. En livslängdsförkortning från 20 till 8 år är något som inte rör de flesta användare i ryggen. Om det inte är stor risk för att kortets livstid skulle reduceras till <5 år, finns det ingen anledning att varna.

Ska vi varna för all potentiell livstidsförkortning kanske det är dags att påpeka för läsarna att de inte ska starta datorn i onödan, då all användning leder till slitage och förkortad livslängd. Ingen dator håller så länge som den som aldrig används.

Det handlar alltså om att ge läsaren ett mervärde i form av kunskap och möjlighet att själv avgöra om risken är värd att ta eller inte. Skräckpropaganda utan baktanke hör hemma i kvällstidningarna.

Citat:

Inte helt oväntat är slutsatsen att överklockare inte har särskilt mycket att hämta utan bör ta det lilla lugna med AMD:s senaste värstingmodell.

I min värld är 75% effektivitet av frekvensökningen i prestanda ganska bra, särskilt i ett så pass gammalt spel.
Så länge ni på sweclockers inte har något belägg för att tidigare generationer från AMD fick 85% eller 980ti får ut 85% bör vi inte lägga någon värdering eller föra vidare artikelförfattarens subjektiva åsikter.

För att sammanfatta vad artikeln har kommit fram till:

  • Vid överklockning stiger effekten normalmycket.

  • Effekt är varmt. Överklockning ger högre effekt. Högre effekt ger kortare livslängd.

  • Överklockning av BARA GPUn ger en prestandaökning som är hälften så stor som frekvensökningen i BF3@4K@Okända inställningar.

Jag hade inte släppt igenom den här artikeln om jag var skribent på techpowerup och jag hade funderat både en och tre gånger vad ni på swec tror att ni vidareförmedlar till medlemmarna med nyheter som dessa.

Och för att avsluta, nej, jag är inte AMD-fanboy, jag vill bara kräkas när jag ser så mycket brister på en gång.
Det finns så många möjligheter att göra en fantastisk jämförelse och dra riktiga slutsatser, men istället är det en sifferorgie som inte säger någonting om man vill jämföra arktitekturer, förstå energiförbrukning eller ens om man vill använda ett Fury X.

Det är ovetenskapligt, rörigt och otydligt.

Allt denna artikeln har gjort klart för oss är att ett överklockat Fury X kan dra upp mot 600w och att kylaren hanterar det utmärkt. I övrigt är allting business as usual, 980ti överklockar bättre och presterar högre till lägre effekt.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk

Spännade mycket info att läsa tackar.

Visa signatur

Min dator
"Delid" I7 4790K@4.8Ghz 1.390v adaptiv volt + 16GB Gskill TridentX cl 9 2400mhz Vattenkylning EK-Supremacy naked Ivy mount. SLI 2xEvga GTX 980 Ti 6GB SC+ ACX 2.0 [Evga supernova P2 1000w]Min spel burk Corsair 900D

Permalänk
Medlem
Skrivet av sniglom:

Den här nyheten är minst sagt svårläst. Ni blandar begrepp, fakta, åsikter och siffror hej vilt.
Skärpning, det här är inte pc för alla, bara för att ursprungsartikeln är undermålig behöver inte er nyhet hålla samma nivå.
................................

Håller med och precis därför jag gjorde mina tester tidigare på sida 2. Att redaktionen släpper sådana skeva artiklar är inte bra. Dom hjälper dessutom till att hamra på AMD som redan har det tungt på marknaden. Det luktar riktad kritik..

Visa signatur

GPU 2080Ti Moderkort ROG Crosshair VIII Formula x570
CPU 5900x Minne Corsair 32GB 3600Mhz Nätagg Corsair AX 1200i
Chassi Lian-Li PC-O7S
Skärm C49RG9x 120Hz Hårddisk Corsair MP600 Kylning husradiator, EK Blocks

Permalänk
Medlem
Skrivet av Tobbbe__:

Håller med och precis därför jag gjorde mina tester tidigare på sida 2. Att redaktionen släpper sådana skeva artiklar är inte bra. Dom hjälper dessutom till att hamra med på AMD som redan har det tungt på marknaden.

Personligen struntar jag om det smutskastar AMD eller inte, det är kass, varken mer eller mindre.
Det kastas siffror hej vilt, utan någon baktanke om en hög eller låg siffra är bra eller vad det betyder.
Det finns inte ens något att jämföra med, så vi kan inte jämföra hur mycket bättre (eller sämre) nvidia gör det.

Det enda jag kan se är att det finns värderingar till saker man inte förstår.

Som vi alla vet klockar 980ti bättre, men det hade varit intressant att jämföra frekvensskalningen på samma sätt.
Alltså, klocka upp ett 980ti så högt det går utan att öka spänningen, öka sedan spänning och frekvens och plotta ut det.
Först då kan vi se hur arkitekturen skalar mot spänning, för vi har tagit bort de stora marginaler nvidia valt att ge och som AMD inte haft möjlighet att ge.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk

De har iafall alltid 4gig ram.....

Visa signatur

CPU: Intel Core i7 3820 3.6 GHz GPU: ASUS GeForce GTX 770 2GB DirectCUII OC SLI
Minne: Crucial Ballistix Elite 16GB DDR3 1866mhz MB: ASUS SABERTOOTH X79 - ATX / X79
PSU: Corsair AX 1200W 80+ Gold Chassi: Cooler Master Storm Trooper
HDD: Corsair Force LS SSD 240 GB Kylare: Hydro i100

Permalänk
Medlem
Skrivet av Nassuz:

Ingen...absolutt ingen kjøper et high end GFX for å spare miljøn.
De kjøper det for max prestanda...

Har du råd med å kjøpe et GFX til 5-8K, så tenker du ikke på strømregningen.

En laptop derimot, eller en HTPC... da kan vi tenke miljø..

Kunde inte ha sagt det bättre själv.
/Lifooz

Visa signatur

Deepcool Matrexx 30 & MSI Z87-G43 Gaming!
Intel Inside Core I7 4790K med AMD Radeon R9 390!
Rubbet strömförsörjs av Corsair RM750X!

Permalänk
Medlem
Skrivet av Viochee:

kanske menade att man kommer drömma om att överklocka?

Rättare sagt att man bara kan drömma om att överklocka.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Skrivet av lol_man53:

"Korten i MIN dator presterar i överlag bättre än 980ti och i vissa fall likadant och i väldigt få fall sämre."

Får jag fråga hur du kan säga det när du aldrig har använt ett par 980 TI? Du har inte fått ett par "super exemplar" som presterar betydligt bättre än alla andra fury X. Fury X förlorar mot gtx 980 TI med ganska stora marginaler, såvida du inte spelar i 4K där det är väldigt jämt och då bara ifall man jämför med referenskort.

Det är kul att du är nöjd med dem och det är givetvis en uppgradering från ett par 980's, men gå inte runt och sprid felinformaton. Alla korten tillverkas lika och en fury X kommer inte att utklassa en 980 TI. Jag tycker snarare att det låter som att många som köpt fury X nu försöker intala sig själva att det är det bästa kortet på marknaden, vilket det är långt ifrån att vara. Hur det ser ut i framtiden när fler drivrutiner och optimeringar har gjorts vet vi inte, men idag är fury X en bra bit efter Nvidias flaggskepp

Hej lol_man53!

Vad får dig att tro att jag aldrig använt ett par 980ti ?
Som jag skrev tidigare korten i MIN dator presterar bättre än ett par 980ti gör med exakt samma inställningar det är inte så svårt att titta på en benchmark och sedan köra en benchmark och detsamma gäller spel eller hur?

För övrigt så är jag ute och spelar en del / därav datorn och då faller det naturligt att flexa e penisen , med det menat så jämför man med andra människor som har andra datorer till ex datorer med ett par 980ti!

Jag tror inte du har någon som helst aning om vad du skriver i detta ämne , har du själv testat en dator med Fury X ? Har du sett ett arbeta irl ?

Jag spelar i 4k varför skulle jag annars köpa dessa kort !?

Varför jag betonade "i min dator" var just för att jag visste att det skulle komma någon sån som du och påstå att jag ljuger har fel etc.

Jag säger inte att Fury X är bättre än 980ti utan jag säger att mina Fury X är bättre än 980ti i en stor marginal av allt jag använder själv och har kört igenom själv än så länge.

Detta är vad jag själv har upplevt och gjort inget jag läst mig till på vinklade forum , nästa gång du uttalar dig så kan du åtminstone pröva produkten innan, fakta före fiction

Visa signatur

NZXT H440W New Edition , Intel Core i7-6700K ,HyperX Predator 3000MHz 32GB ,CORSAIR RM850x ,2 x R9 NANO ,MSI Z170A GAMING M9 ACK, Samsung 950 PRO 256GB M.2, SEAGATE BARRACUDA 3TB , Intel TS15A CPU Air Cooler.

Permalänk
Medlem

Borde vara ungefär samma om kortet klockas ner, tappar några enstaka bildrutor per sekund men betydligt lägre energi förbrukning, tystare och längre livslängd mm. Nyheten gör Radeon R9 Nano än mer intressant som alternativ på sina 175W.

Skickades från m.sweclockers.com

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Medlem

En fråga till er alla hur många är det som överklockar som spelar på pc i % ?

Tror andelen är rätt liten och amd gjort sitt bästa med en ny teknik för att kunna konkurera med nvidia.

Visa signatur

Dator 1 [] AMD FX-8350 5.06Ghz [] CROSSHAIR V FORMULA-Z [] Ram : Corsair 8GB (2x4096MB) CL9 1866Mhz []CF Radeon HD7870 [] PSU : XFX Core Edition 850W 80+ Bronze [] Kylning : Beg vattenkylning med cpu Ek-Supremacy Elite AMD .::. 5GHz klubben 2014.::. - .::. OC 1GHz+ Cinebench Klubben 2014 .::.-.::. 4GHz+ Klubben 2014 .::..::. 3DMark FireStrike Klubben .::.

Permalänk
Medlem
Skrivet av Xiqt:

AMD har aldrig klockat bra så varför ändra på det...

7950 tog 50% i en av Sweclockers recensioner. Ditt egna exempel ger ett snitt på 40% på luft.

Permalänk
Medlem

Tycker det låter mer och mer som jag trodde från början, att Fury X är klockat från fabrik till nära sitt absoluta max och bör jämföras med överklockade kort.

Permalänk
Medlem

Hade den höga strömförbrukningen kommit med prestanda likvärdig ökningen, hade inte jag sett ett endaste litet problem med det. Har man råd med en PC för 15-25k får man ju inte vara dumsnål och haka upp sig på att datorn slukar ström.
Sen att låg strömförbrukning och hög prestanda är en trend, märks tydligt. Jag hade lätt köpt ett kort med hög strömförbrukning om den höga förbrukningen lett till grym prestanda.
Tyvärr faller väl detta kortet lite platt där. Jag tror AMD kommer hitta på en bättre lösning för framtiden.

Skickades från m.sweclockers.com

Visa signatur

If nobody hates you, you’re doing something wrong.

Permalänk
Medlem
Skrivet av Layon:

Varför testar man ett gammalt spel som BF3 för ett nytt kort, och dessutom i windows 7?, det är doc fortfarande ett dåligt resultat för kortet men jag hade verkligen velat se testerna i nyare spel och att dom kört windows 8 eller 10.

Dx11....
Jag skulle vilja se hur korten presterar i Dx12, Vulcan etc.
Man kan ju kanske även slänga in Dx9 bara för att det finns så himla många spel för just den versionen.

Permalänk
Medlem
Skrivet av DominatorPC:

Det är en väldig kritik och dålig press på Swec om Fury X , man kan lätt få känslan av att man försöker göra reklam för Nvidia samtidigt som man pekar finger emot AMD.

Jag sitter på 2st Fury X , uppgraderade ifrån 2st 980.

Vad jag kan säga utifrån mina egna upplevelser och erfarenhet med dessa kort är att dom är riktigt stabila och kraftfulla det är klart bättre än min förra setup med 980!
Just att korten är så stabil i CF är den största fördelen.
Korten i MIN dator presterar i överlag bättre än 980ti och i vissa fall likadant och i väldigt få fall sämre.

Jag kanske har fått två super exemplar eller så är korten helt enkelt väldigt bra i vilket fall så är jag nöjd

Hej

Jag är också nöjd med mitt Fury X. Det funkar utan problem att använda höga inställningar i 4K (ibland max inställningar)

Jag är extremt nöjd med att spela i 4K det är något med känslan när bilden är knivskarp.

men det man saknar är just detta med att kunna maxa kortet själv. Idag så är allt låst. (jag vet att några kan ändra hastigheten på minnet men jag kan inte det)

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090