AMD Radeon R9 Fury från XFX på ingång

Permalänk
Melding Plague

AMD Radeon R9 Fury från XFX på ingång

Antalet tillverkare som gör Radeon R9 Fury-grafikkort är i dagsläget begränsat till två, men nu ser det ut som att fler förbereder sig för att hoppa på tåget.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Gissar att det kommer bli en billig men dålig verison av fury.

Visa signatur

5800X, Asus dual 4070, 32GB, Fractal newton R2 650 watt, Asus Prime B350-plus , Phanteks 400s vit, Asus TUF VG27AQ1A, Dell U2515H.
https://www.flickr.com/photos/albinivik/

Permalänk
Medlem

Fury är dock inte dåligt, kortet har en väldigt bra prestanda men har haft oturen att 980ti lägger sig lite högre och har mycket bättre överklockning.

Skickades från m.sweclockers.com

Visa signatur

Professionell sociopat.

Permalänk
Medlem

Frågan är, hur pass trasiga är dessa AMD kretsar?
Fury X är ju kompletta, Nano också.
Fury för 3:e part är den skadade (ett kluster) versionen.

Frågan är om de får en massa kretsar med 2 skadade segment, kanske de borde släppt en ytterligare nedskalad version för mid range. Kretsen är ju stor som tusan och det är svårt att få bra kretsar, men det måste vara bättre att sälja även de 2 steg trasiga än att slänga dem.

Nvidia gjorde ju detta med ursprungliga Titan. Den hade 2 kluster som var avstängda, men ändå betalade folk 11kkr för "skit" chippen, endast för det då var det mest kraftiga som fanns.

Permalänk
Medlem

@PaddanX En ytterligare nedskalad Fury hade förmodligen hamnat i samma prestandasegment som 390X och jag tror inte AMD vill konkurrera med sig själva så att säga. Svårt att sia utan att veta hur deras yields är, egentligen, men jag skulle gissa att de har bättre vinstmarginal på 390X i det segmentet samt mycket bättre tillgång på Grenada.

Permalänk
Medlem

Det var väl minst sagt på tiden.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

R9 Fury nu för 5290kr nu från ASUS med nya kylaren är ett mycket smaskigt kort också:

Drar ifrån GTX 980 rätt rejält enligt testet och får mycket bra utmärkelse:

http://www.guru3d.com/articles-pages/asus-radeon-r9-fury-stri...

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av 2good4you:

R9 Fury nu för 5290kr nu från ASUS med nya kylaren är ett mycket smaskigt kort också:

980 pris men betydligt snabbare kort:

http://www.guru3d.com/articles-pages/asus-radeon-r9-fury-stri...

såg ut som ett trevligt kort helt klar prisvärt, synd att de inte hade med ett klockat 980 också dock... antar att det är referens 980 också

om nu 5290 stämmer... verkade vara 6190 på sidan?

Permalänk
Medlem
Skrivet av 2good4you:

R9 Fury nu för 5290kr nu från ASUS med nya kylaren är ett mycket smaskigt kort också:

980 pris men betydligt snabbare kort:

http://www.guru3d.com/articles-pages/asus-radeon-r9-fury-stri...

Står 5290 på priskakt men 6190:- på hemsidan. Dras detta av i kassan? Var längesedan som tusan jag handlade på netonnet.
https://www.netonnet.se/art/komponenter/grafikkort/amd/asus-r...

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Datavetare
Skrivet av 2good4you:

R9 Fury nu för 5290kr nu från ASUS med nya kylaren är ett mycket smaskigt kort också:

980 pris men betydligt snabbare kort:

http://www.guru3d.com/articles-pages/asus-radeon-r9-fury-stri...

Referensramen är alltså att 6%-15% är "betydligt snabbare"? Det är i alla fall så mycket snabbare Fury är jämfört med stock 980 enligt SweC prestandaindex, 6% verkar också vara ungefär så mycket extra prestanda fabriksöverklockade 980 har.

Det sagt: fattar inte riktigt varför det är Fury X och Nano som genererar all "buzz" när Fury verkar vara den Fiji-baserad modell som har absolut vettigast pris/perf. Ska man klaga på Fiji så borde en av de första sakerna vara kretsen är obalanserad för dagens spel, för mycket "shader-compute" i förhållande till geometri och per-pixel kraft.

Man ser också på resultaten att skillnaden mellan Fury och Fury X är i praktiken ungefär de 5% som skiljer i klockfrekvens (allt skalar med frekvens, inklusive geometri och per-pixel kraft), inte de 20% som skiljer i "shader-compute" kraft (~15% från stream-processorer och ~5% från klockfrekvens).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

@kevve1: Höjt från 5290 för tre timmar sen på Netonnet. Prisjakt är väl sena.

Permalänk
Medlem
Skrivet av Viochee:

om nu 5290 stämmer... verkade vara 6190 på sidan?

Ändrat igen men finns på proshop för 5500kr såg jag:

http://www.proshop.se/Grafikkort/ASUS-Radeon-R9-Fury-STRIX-4G...

Skrivet av kevve1:

Står 5290 på priskakt men 6190:- på hemsidan. Dras detta av i kassan? Var längesedan som tusan jag handlade på netonnet.
https://www.netonnet.se/art/komponenter/grafikkort/amd/asus-r...

Ändrat igen men finns på proshop för 5500kr såg jag:

http://www.proshop.se/Grafikkort/ASUS-Radeon-R9-Fury-STRIX-4G...

Skrivet av Yoshman:

Referensramen är alltså att 6%-15% är "betydligt snabbare"? Det är i alla fall så mycket snabbare Fury är jämfört med stock 980 enligt SweC prestandaindex, 6% verkar också vara ungefär så mycket extra prestanda fabriksöverklockade 980 har.

Det sagt: fattar inte riktigt varför det är Fury X och Nano som genererar all "buzz" när Fury verkar vara den Fiji-baserad modell som har absolut vettigast pris/perf. Ska man klaga på Fiji så borde en av de första sakerna vara kretsen är obalanserad för dagens spel, för mycket "shader-compute" i förhållande till geometri och per-pixel kraft.

Man ser också på resultaten att skillnaden mellan Fury och Fury X är i praktiken ungefär de 5% som skiljer i klockfrekvens (allt skalar med frekvens, inklusive geometri och per-pixel kraft), inte de 20% som skiljer i "shader-compute" kraft (~15% från stream-processorer och ~5% från klockfrekvens).

Har du tittat på Guru3D's test? Det drar ifrån rätt rejält i många fall... Ja och det beror helt på vilka spel man testar korten i, och jag är trött på den testnorm som används idag med samma spel jämt som råkar fungera extremt bra på nvidia (och jag ska förklara varför denna gång mer ingående då det inte är Fury som är obalanserad), därför länkade jag till testet på Guru3D. Fury är en betydligt fetare GPU, men som inte alls kommer till sin användning än:

290/390 (och speciellt Fury/Fiji) korten är om man ser på mikroarkitekturen överlägsna då dom erbjuder högst flyttalsberäkningar/mm2 av något annat i samma liga. GCN GPU'erna är konstruerade för att beräkna grafik+data/fysik/ljussättning fullt asynkront med massiva mängder trådar medans nvidia snarare har konstruerat sina GPU'er efter hur API'n är uppdelad (DX11) där du "ska" köra olika typer av beräkningar seriellt på olika delar av grafikprocessorn som man alltid gjort=ineffektivt på en äkta GPGPU. Det är en av anledningarna till att DX11 är och kanske förblir en sämre implementation på AMD kort med massiv overhead och dålig optimering i dom flesta spel som inte drar nytta av kapaciteten hos GCN. TROTS allt så går det fortfarande att lira alla dessa DX11 spel på AMD-kort i dom mest extrema inställningar.

Detta är såklart inte hårdvarans fel, utan har vart en kombination av dåligt optimerade spelportar och försenade drivrutiner också. Flertrådningen har i princip också vart katastrofal/trasig i DX11 sedan dag 1 och utvecklare har nog aldrig haft så mycket bekymmer som med DX11. Det är egentligen inte DX12 som är fantastiskt, utan snarare tidigare DX API'er som vart katastrofalt ineffektiva.

GCN är byggt kring massiv parallellism och i DX12 kommer dom kunna sträcka på benen fullt ut. Det sitter inte AMD GPU'er/SOC's i spelkonsoller/MAC med 8st ACE's i PS4/X-Box av en slump.

Maxwell 2 har 31+1 kommandoköer och AMD har sedan 290 korten och frammåt 64st (8st ACE's+8köer per ACE). Så fort man kommit över 31 köer av kommandon så ser man en exponentiell ökning av renderingstider på nvidia korten vilket man inte sett på AMD korten i samma utsträckning. Hur detta yttrar sig i DX12 spel får vi se, men detta betyder att AMD har minst dubbelt så mycket hårdvaruresurser.

Det man sett och hört hittills av DX12 har ju inte vart speciellt lockande där nvidia beordrat att utvecklare som Oxide ska inaktivera async compute i ett test dom utvecklat. Drivrutinen har flaggat om att stöd finns men att det orsakat systemkrascher. Nvidia har också blivit utfrågade på om Maxwell verkligen klarar att köra alla typer av kommandon helt synkront, och i så fall i vilken utsträckning. Vill man chansa på det, så är det upp till var och en, men faktum kvarstår, du har 8st ACE's på alla 290 kort och framåt, och dom är extremt kraftfulla.

PS. Det fanns en tid när AMD tom hade mindre overhead än nvidia: DS.

DX10/11 är skräp, speciellt med dagens katastrofala portar, fråga vilken utvecklare som helst.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av AndraBullar:

@PaddanX En ytterligare nedskalad Fury hade förmodligen hamnat i samma prestandasegment som 390X och jag tror inte AMD vill konkurrera med sig själva så att säga. Svårt att sia utan att veta hur deras yields är, egentligen, men jag skulle gissa att de har bättre vinstmarginal på 390X i det segmentet samt mycket bättre tillgång på Grenada.

Jo, finns väl risk för det.

Men det är ju inte direkt dålig ekonomi att sälja dessa chip som de annars får slänga på något sätt. Den har ju enormt bra energieffektivitet och du måste inte göra det till en värsting krets. Du kan göra den som ett Nano alternativ fast långsammare och betydligt billigare. Låt 3:e part tillverka om du så vill.

AMD behöver just nu kort att sälja av Fury, och de lär ha tillgång på dessa 2 steg trasiga i ett bra tag framöver, om de har gott om dem nu.

Permalänk
Medlem

Snyggaste hittills faktiskt.
/Lifooz

Visa signatur

Deepcool Matrexx 30 & MSI Z87-G43 Gaming!
Intel Inside Core I7 4790K med AMD Radeon R9 290!
Rubbet strömförsörjs av Corsair RM750X!
Hjälp Teamtrees plantera träd på vår jord. https://teamtrees.org/

Permalänk
Medlem

Härligt att fler tillverkare börjar anamma 390, även om jag inte har så stort förtroende för XFX. Senaste kortet jag hade från dom var ett HD7850 som verkligen var katastrofalt på nästintill alla punkter.

Visa signatur

🖥️ Fractal Design Node 804 • Asrock Fatal1ty X99M Killer • Intel 5820K • Noctua NH-U12S • Corsair Vengeance 16GB • Gigabyte GTX 970 • be quiet! Dark Power Pro 550w • 2x Intel 520 120GB • 2x 1TB • 1x 3TB
💻 Microsoft Surface Pro (8GB/128GB)
 iPhone 11 64GB 🎧 SONY WH-1000XM3
🎵📲 SONY NW-ZX300 64GB [Region changed & Mr Walkman custom firmware loaded] + 256GB xtra • Audio Technica ATH-M50X

Permalänk
Hjälpsam

@2good4you: Börjat fundera lite på om inte detta är en stor orsak till att AMD har större overhead på sin drivare i DX11, än vad Nvidia har.
Om nu Nvidias hårdvara passar bättre till DX11, är det inte konstigt om dess drivrutin har lägre overhead, det behövs ju mindre drivrutin mellan DX11 och hårdvaran.
AMD:s "klister" är tjockare, dess hårdvara är inte lika optimerad för DX11, vilket gör att dess drivrutin behöver göra mera, för att anpassa anropen från DX11 till hårdvaran, detta tar längre tid och mer kraft, detsamma som overhead.

Finns givetvis andra saker som inverkar också, men jag tror att detta är en stor del av förklaringen.
Med DX12 är rollerna ombytta, nu skiljer sig Nvidias hårdvara mer från DX12, än vad AMD:s gör.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare

@2good4you: håller med om att DX11 lägger väldigt mycket i knät på drivrutinsutvecklaren, men tror inte spelutvecklare generellt håller med om att det är ett dåligt API. Det finns inga gratisluncher och det folk redan börjar märka med DX12 är att med stor kraft kommer ett stor ansvar, mycket av skillnader i underliggande HW kunde "gömmas" i drivare med DX11 medan DX12 med stor sannolikhet kommer kräva minst en back-end per GPU-tillverkare för optimal prestanda.

DX11.3 lanserades samtidigt med DX12 just för att man förväntar sig att många spel kommer fördra en lite mer "high-level" API då det är enklare för utvecklaren. Trippel-A titlarna och de stora generella spelmotorerna lär gå till DX12 då det finns resurser att hantera merjobbet där.

Om, notera om, det inte är något fel på Maxwells gen 2 "mixed mode" så har jag svårt att se att 31 compute-köer någonsin kommer bli en flaskhals. Varför skulle man vilja ha med än en "compute kö" per CPU-tråd? Är det sannolikt att en high-end gaming PCn kommer ha fler än 32 CPU-trådar (en driver "generic kön") innan dagens GPUer är överspelade?

Bara för 64 är ett större tal en 31 betyder det inte automatiskt att GCN är bättre. Nu kommer GCN dra mer nytta än Maxwell av DX12, men inte p.g.a. antalet ACE/köer utan helt enkelt för designen passar DX11 väldigt dåligt. Hur mycket mer DX12 ger för GCN återstår att se.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hedersmedlem

Tycker att kortet är det plastigaste som kommit ut hittills. Ser iaf väldigt plastigt ut.

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
Datavetare
Skrivet av Ratatosk:

@2good4you: Börjat fundera lite på om inte detta är en stor orsak till att AMD har större overhead på sin drivare i DX11, än vad Nvidia har.
Om nu Nvidias hårdvara passar bättre till DX11, är det inte konstigt om dess drivrutin har lägre overhead, det behövs ju mindre drivrutin mellan DX11 och hårdvaran.
AMD:s "klister" är tjockare, dess hårdvara är inte lika optimerad för DX11, vilket gör att dess drivrutin behöver göra mera, för att anpassa anropen från DX11 till hårdvaran, detta tar längre tid och mer kraft, detsamma som overhead.

Finns givetvis andra saker som inverkar också, men jag tror att detta är en stor del av förklaringen.
Med DX12 är rollerna ombytta, nu skiljer sig Nvidias hårdvara mer från DX12, än vad AMD:s gör.

Overhead:en kan inte komma därifrån, AMDs kort äter mer CPU-kraft för att programmera grafik-kön och finns ingen teknisk vettig förklaring varför det skulle vara dyrare i GCN. För att optimera prestanda för DX11 krävs väldigt mycket heuristik (finare ord för "gissningar"), heuristiken fungerar bättre om man hjälper den på traven vilket är vad Nvidia gör när de släpper nya drivare som optimerar för alla större spel. Problemet är bara att sådana optimeringar kräver ett stort driver-team -> dyrt!

<edit> vad man har heuristik för är för att avgöra om man samlat ihop "tillräckligt" med arbete så det är lämpligt att skicka det till GPUn. Det är associerat med en fixerad kostnad varje gång man pratar med GPUn, man vill därför stoppa dit flera jobb för att sprida ut den kostnaden över flera jobb. Hur man sparar sådan information och hur pass bra man "gissa" avgör väldigt mycket hur hög/låg overhead man får i DX11. Gissar man helt rätt blir det samma overhead som en DX12 titel där speltillverkaren gjort bra val, men att gissa rätt är lite som att förutsäga morgondagens väder. I DX12 är helt upp till speltillverkaren att göra dessa avvägningar, i de flesta fall är det en klar förbättring då spelmotorn har betydligt mer "domänkännedom" om när det är lämpligt att posta information till GPUn. Nedsidan är att man måste känna till mer om underliggande HW då det kan krävas lite olika policy för olika GPUer.</edit>

Se det mer som att GCN har stöd för SMT men DX11 har i sig inte stöd för den tekniken. En CPU som är extremt "bred", t.ex. POWER8, kommer aldrig kunna utnyttja all sin teoretiska kraft om den inte kan använda alla CPU-trådar (finns upp till 8 per kärna). Haswell Xeon är rätt mycket snabbare än POWER8 när bra en CPU-tråd används, men det omvända gäller om det är möjligt att använda alla 8 trådar per kärna för POWER8.

Är det som folk totalt missat i diskussionen kring "async compute", det är inte DX12 finess men DX12 möjliggör användandet av sådana finesser. Tittar man på teoretisk prestanda ligger 380 och 970 väldigt nära, men den senare är jämförbar med 390 i DX11. Ska bli väldigt intressant att se just hur mycket närmare GCN kommer sin teoretiska prestanda med DX12. Maxwell kommer få nytta av vissa saker i DX12, som lägre "draw-call" kostnad, men på det stora hela lär det knappast bli speciellt mycket snabbare än med DX11 då den designen redan har hög utnyttjandegrad (likt Haswell där SMT inte kan användas).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@yoshman hoppas du gör lite gästartiklar någon gång på Sweclockers. Det du skriver låter som rena grekiskan för mig men ändå är det intressant.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av Yoshman:

Maxwell kommer få nytta av vissa saker i DX12, som lägre "draw-call" kostnad, men på det stora hela lär det knappast bli speciellt mycket snabbare än med DX11 då den designen redan har hög utnyttjandegrad (likt Haswell där SMT inte kan användas).

Är inte just draw calls en av de stora fördelarna med just DX12. Var ju exempelvis det Raja Koduri slog på stora trumman för med Mantle.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Datavetare
Skrivet av elajt_1:

Är inte just draw calls en av de stora fördelarna med just DX12. Var ju exempelvis det Raja Koduri slog på stora trumman för med Mantle.

I teorin är det en stor fördel, men med vad Nvidia visat i flera fall, inklusive Ashes of the Singularity, är att om man specialanpassar den heuristik som drivers använder i DX11 för specifika titlar så verkar man komma rätt långt även där.

Sedan är ett annan sidan av myntet att många PC-gaming system har långt kraftigare CPU-del än vad som egentligen behövs. Faktum är att detta gått så långt att många speltitlar uppför sig väldigt illa om man alls hamnar i ett läge där CPU-delen är flaskhals, d.v.s. man verkar överhuvudtaget inte testa det fallet.

Tittar man på utfallet Mantle gav i verkliga spel så var det rätt lite med vad som skulle betecknas som "balanserade" system. APUer såg inte heller någon större vinst. Där man såg en reell vinst var om man kombinerade svaga CPUer med topp-of-the-line GPUer, något som ändå visar att "overhead" gick ned men det är inte där flaskhalsen typiskt ligger idag.

Är därför min gissning är att Maxwell kommer se ungefär samma prestanda i både DX11 som DX12, finns vissa saker som blir effektivare med DX12. Maxwell är lite vad man kallar en "brainiac" design, d.v.s. lägre teoretisk kapacitet men där fler transistorer används till att utnyttja den kapacitet man har trots lite "elak" arbetslast.

För GCN är problemet att det är mer av många men lite enklare kärnor. Till skillnad från CPUer så är en sådan design riktigt vettig för grafik då grafik i grunden är ett väldigt parallelliserbart problem. Problemet verkar vara att man dragit enkelheten lite för långt, modellen som används av DX11 kan inte erbjuda tillräckligt med oberoende problem för få hög utnyttjandegrad av teoretisk kapacitet. Tanken med ACE är att dessa får återkoppling när delar av kretsen inte används fullt ut, finns det då jobb köade på ACE kan dessa köras "i bakgrunden" för att utnyttja kapacitet som annars stod outnyttjad. Man får då ut mer beräkningar per tidsenhet utan att det allt för mycket påverkar det som är huvuduppgift, ungefär som Hyperthreading där trådarna vore uppdelade i "förgrund" med hög prioritet och "backgrund" med lägre prioritet (så fungerar inte HT eller någon SMT, man har andra mål i en CPU och är därför kritiskt att alla trådar här har samma prioritet, men för grafik/compute fungerar en sådan uppdelning).

Fördelen med Nvidias modell är att det hanterar ett "dåligt" API bättre, fördelen med AMDs modell är att man får mer beräkningskraft givet en viss transistorbudget. Så båda modellerna har fördelar/nackdelar.

Frågan är hur mycket "async compute" kommer ge för PC. Att det ger mycket på PS4/XBO (man talar om upp till 30%) beror nog mycket på att CPU-delen där varit en flaskhals sedan dag 1, Cell i PS3 har faktiskt ungefär dubbla teoretiska flyttalskapacitet och även CPU-delen i 360 har något högre teoretisk flyttalskapacitet jämfört med dagens konsoler. Dagens konsoler är helt enkelt beroende av ACE för att ens matcha förra generation i flyttalskraft med avseende på CPU.

Även en i3 har runt 3x kapacitet mot de 6 kärnor som PS4/XBO kan använda, så vid översättning av ett konsolspel finns egentligen få orsaker att köra fysik och andra rena beräkningar i GPUn. Framförallt då GPUn typiskt är flaskhals och DX12 kommer med stor sannolikhet än mer minska trycket på CPU-delen. Effekten av "async compute" kommer därför vara mindre än för konsoler, men finns ändå saker man kan göra och som inte lämpar sig för CPU, t.ex. post-processing (som även kan göras via explicit multi-adapter om man har iGPU).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer