::: Radeon Fury / Fiji XT diskussionstråd :::

Permalänk
Medlem
Skrivet av sesese:

Vad hade du för grafikkort innan du bytte ??

Kan du köra 3dmark med din oc jag vill se hur mycker det gör i ren prestandard.

Är du helnöjd med kortet eller är det något du är mindre nöjd med ?

hoppas på svar

helnöjd med kortet då jag kan spela the witcher 3 ultra + max postprocessing (1440p)utan problem då det Pendlar mellan 40-60 fps, och det är STOR skillnad mot mitt R9 280X kort. Enda missnöjet är väl ljudnivån.

Jag antar att det kommer bli ännu bättre i Windows 10.

Visa signatur

Ryzen 7800X3D
32GB DDR5
RX 7900XT

Permalänk
Medlem

@SectionX2: Fan vad tur du hade att du fick ditt så fort Sitter och väntar på 2st från komplett.

Visa signatur

|Asrock X370 Pro Gaming| Ryzen 3800XT| 32GB Geil Super Luce 3400mhz ddr4| Hellhound 7900XT | Samsung 950 Pro 512gb & Seagate 600 480gb| Crosair RM1000| Deepcool Dukase| Siberia 840| Zowie EC1-A| Corsair RGB MX Blue| Samsung Odyssey G8 |

Permalänk
Medlem
Skrivet av Hymer:

@SectionX2: Fan vad tur du hade att du fick ditt så fort Sitter och väntar på 2st från komplett.

2 st Fury X i Crossfire?

Permalänk
Medlem
Skrivet av Bazisten:

2 st Fury X i Crossfire?

Jopp, Måste köra CF/SLI för vettig 4k prestanda.

Visa signatur

|Asrock X370 Pro Gaming| Ryzen 3800XT| 32GB Geil Super Luce 3400mhz ddr4| Hellhound 7900XT | Samsung 950 Pro 512gb & Seagate 600 480gb| Crosair RM1000| Deepcool Dukase| Siberia 840| Zowie EC1-A| Corsair RGB MX Blue| Samsung Odyssey G8 |

Permalänk
Medlem
Skrivet av Hymer:

Jopp, Måste köra CF/SLI för vettig 4k prestanda.

Säg inte så du skrämmer min plånbok, får min 4k skärm i morgon. Förhoppningsvis klarar mitt 970 av mina spel i 4k om man sänker lite inställningar.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem

@jOnÄTÄn: Hehe jag gillar att maxxa

Visa signatur

|Asrock X370 Pro Gaming| Ryzen 3800XT| 32GB Geil Super Luce 3400mhz ddr4| Hellhound 7900XT | Samsung 950 Pro 512gb & Seagate 600 480gb| Crosair RM1000| Deepcool Dukase| Siberia 840| Zowie EC1-A| Corsair RGB MX Blue| Samsung Odyssey G8 |

Permalänk
Medlem

Hade varit intressant att se Yoshman intervjua en ingenjör från AMD. Deras designval framstår som ytterst märkliga efter att han förklarat sin syn på det hela.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Medlem

Har vi fler medlemar som har slagit till?
Nyfiken på om dom också har vinande pump, det är ju solklar retur på sådant.
Eller har AMD sagt något konkret om nya drivar?

Visa signatur

Är det här man ska skriva upp vilken dator man använder?
Ballongmoddat hopkok som kyls med vatten och kopplat till ett gäng skärmar med en massa pixlar.
Duger det??

Permalänk
Hedersmedlem

*Tråd rensad*

Tagit bort off topic/inlägg som stred mot §9. All handel hör hemma i Marknaden.
/moderator

Visa signatur

Danskjävel så krattar som en skrivare...

Permalänk
Medlem
Skrivet av Hymer:

@SectionX2: Fan vad tur du hade att du fick ditt så fort Sitter och väntar på 2st från komplett.

Inte tur. Köpte ett 14:01 ☺

Skickades från m.sweclockers.com

Visa signatur

Ryzen 7800X3D
32GB DDR5
RX 7900XT

Permalänk
Datavetare
Skrivet av Fire_Ice:

Hade varit intressant att se Yoshman intervjua en ingenjör från AMD. Deras designval framstår som ytterst märkliga efter att han förklarat sin syn på det hela.

Det finns nu en otroligt intressant video där bl.a. David Kanter (extremt kunnig kring CPU/GPU-design, driver RealWordTech) ger sina insikter om Fiji-arkitekturen.

Om man inte orkar se hela 1h55min så finns det några riktiga guldkorn. Dels där man beskriver hur och varför man TechReport gör sin "frametime" analys
https://youtu.be/28CECF_Cieo?t=1034

Det som jag fann mest intressant är när Jeff Kampman (TR) och David Kanter diskuterar hur man kan förklara de resultat man sett givet den design AMD valt i Fury X
https://youtu.be/28CECF_Cieo?t=2489

Två saker förklarades där:

  • De resultat som AMD släppte strax innan release var verkliga uppmätta resultat, men inställningarna var väldigt tweekade. Man körde utan anisotropic filtering, man körde med post-processing AA och alla ljuseffekter på max (något som äter shader kraft). Så den tabell som finns som första post i denna tråd är nog helt korrekt, men det är med inställningar nog ingen skulle använda i praktiken

  • Man nämner att L2-cachen, som jag undrade lite om ovan, typiskt ger stor effekt för vissa saker man gör i shader program (t.ex. post-processing AA). Att då öka L2 är helt vettigt i Fiji (för att kunna mata alla GCN-cores), fast av en lite annan anledning än i Maxwell (där det främst är för att avlasta VRAM-bussen från ROPs (och även CUDA-cores) och därmed öka perf/W)

Man spekulerar också lite kring varför man inte ökade ROPs och framförallt inte ökade triangelkapaciteten, den senare kan vara att AMD lite kallt räknar med att de flesta spel kommer vara konsolportar och förutsatt att man inte lägger massor med tid på att putsa på alla 3D-modeller så kommer det inte vara fler trianglar i de flesta PC-spel än det är på PS4/XBO, som båda kör GCN 1.0 (geometrikomplexitet är något som typiskt inte ändras av upplösning, kan ändras av vissa andra inställningar).

Är nog inte helt fel tänkt av AMD och om det är så blir det kritiskt för Nvidia att få in GameWorks effekter i PC-spel då detta ger ett enkelt (->billig) sätt att tillföra effekter som ökar geometrikomplexiteten rejält (t.ex. HairWorks), detta är viktigt för Nvidia då deras styrka relativt AMD just nu är geometri medan det omvända gäller för shader-prestanda.

Sedan pekar @Petterk på en sak: detta är en "mellanprodukt", inte minst för 28nm börjar sätta allt fler käppar i hjulen både för AMD och Nvidia då kretsstorleken börjar bli ohållbar. I Fiji minskade AMD ner kraften för DP, inte lika mycket som Nvidia gjort i Maxwell, men det är uppenbart att man kommit till en punkt där något måste tas bort för att man ska kunna lägga dit något nytt.

Edit: slutklämmen är också intressant. Man har varit på 28nm _väldigt_ länge nu, men finns flera orsaker till att det vi kan få se 14/16nm bli en än större långkörare.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

28 nm är inte mer än ca 280 väteatomer i bredd, detta skall användas för att realisera nästan 9 miljarder transistorer, det blir bara besvärligare och besvärligare att krympa linjebredden, jag fattar inte att de kunnat komma så långt som de kommit i dag.

Att vi kan köpa de grafikkort vi kan, är ett smärre mirakel.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Man behöver minst 2-3 gtx 980ti eller fury x för att klara 4k med 60 fps minimum. Sedan så ska man ju helst ha en intel 6 core, ingen AMD eller sånt.

Permalänk
Medlem

@SectionX2: Skills då ;D Såg att några hade kommit in på Inet men dom försvann lika fort.

Visa signatur

|Asrock X370 Pro Gaming| Ryzen 3800XT| 32GB Geil Super Luce 3400mhz ddr4| Hellhound 7900XT | Samsung 950 Pro 512gb & Seagate 600 480gb| Crosair RM1000| Deepcool Dukase| Siberia 840| Zowie EC1-A| Corsair RGB MX Blue| Samsung Odyssey G8 |

Permalänk
Medlem
Skrivet av Ratatosk:

28 nm är inte mer än ca 280 väteatomer i bredd, detta skall användas för att realisera nästan 9 miljarder transistorer, det blir bara besvärligare och besvärligare att krympa linjebredden, jag fattar inte att de kunnat komma så långt som de kommit i dag.

Att vi kan köpa de grafikkort vi kan, är ett smärre mirakel.

Det finns lite mer att ge, men det finns ingen brådska eller något uppenbart behov att gå under (eller om Intel får som de vill 5-7 nm) ~10 nm. Ska vi ner på nivå där vi behöver sveptunnelmikroskop och arrangera enstaka atomer/grupper så finns det förmodligen ingen ekonomi för det hela (vi talar fortfarande om nm-storlek där) och äldre fotolitografi kommer leva vidare även när det börjar användas sveptunnelmikroskop för viss tillverkning. Vi ska ju gå över till 450 mm wafers också, vilket inte lär hända fören nästa årtionde. Säg att Intel lyckas med 7 nm och 450 mm wafers, då finns det nog få ekonomiska incitament att utveckla något som konkurrerar med det. Efter det steget är det oklart hur och med vad de ska tillverka mindre kretsar ändå. Det går inte att driva vidare litografin längre än ~5 nm. DRAM och NAND har de kört flera kretsar inkapslat i samma kapsel väldigt länge, och nu börjar de med 3D-stackar. Även om det blir mycket kisel man stoppar in i slutändan så finns det ekonomi i det hela och det kan göras på massiv skala.

Det finns ju risk att Intels 10 nm även försenas ett bra tag. Intels 14 nm ligger väldigt långt framme, Samsungs och Globalfoundries (gamla Common Platform där IBM ingick numera del av GloFo) nuvarande 14nm-process (14LPE/LPP) kan dock förbättras en hel del, och kör ju 20 nm BEOL. Grafikkort behöver ju dock en high-performance-process, vilket är det som uteblivit vid 20 nm hos TSMC exempelvis, vilket ju gör 14/16 till nästa steg. 20 nm på SoCs såg vi inte många månader innan vi fick 14 nm.

Kan vi få stanna på nästa steg en längre period igen? Det ser ju mer eller mindre ut som det. Åtminstone för vissa kretstyper. Varför nästa steg känns så viktigt är ju däremot för att vi inte riktigt kan förvänta oss nya designer innan dess, det som finns idag är och känns som trimmade varianter av äldre kretsar – där all ny teknik ännu inte kommit in heller. All teknik betyder inte att stoppa in mer transistorer, kräver massor minne och breda bussar osv. Så mycket kommer hända även om tillverkningsprocesserna blir mer långlivade. Idag har ju också mobiler miljarder med transistorer bara i SoC:n. Inte för att det ger dig några hoverboards eller flygande bilar.

Permalänk
Medlem

jag tittade på reddit och såg någon som pratade om att det var en sida som hittade en bugg så dom kunde överclocka minnet i furyx med 20%! vet ej om det är riktigt eller ej, men om det är riktigt så är det riktigt imponerande!

http://uk.hardware.info/reviews/6158/19/amd-radeon-r9-fury-x-...

Vad tror ni, tror ni man kan lita på dom eller?

Permalänk
Datavetare
Skrivet av Fatty:

jag tittade på reddit och såg någon som pratade om att det var en sida som hittade en bugg så dom kunde överclocka minnet i furyx med 20%! vet ej om det är riktigt eller ej, men om det är riktigt så är det riktigt imponerande!

http://uk.hardware.info/reviews/6158/19/amd-radeon-r9-fury-x-...

Vad tror ni, tror ni man kan lita på dom eller?

Man ska nog vänta till några till rapporterar samma sak innan man ska tro på det. Det är dock inte helt orimligt att Fury X kommer tjäna på att överklocka minnet i vissa lägen, något som kan te sig lite ologiskt givet den massiva bandbredden.

Tittar man på hur minneshierarkin är uppdelad, låt oss använda R9 390x som referens, så visa specifikationerna saker som bredd ("antal bitar"), frekvens (egentligen transfers/s då verkliga frekvensen är lägre) och aggregerad bandbredd.

För Fury X är bredden 4096-bitar, frekvensen 1.0GHz och total bandbredd 512GB/s
För 390x är bredden 512-bitar, frekvensen 6.0GHz och total bandbredd 384GB/s

Sett till total bandbredd borde Fury X överhuvudtaget inte ha detta som flaskhals. Om man däremot tittar på enskilda minnestransaktioner måste man borra lite djupare i hur minnet är organiserat. Varje minnesaccess kommer att gå till en viss minneskrets, data läses/skrives genom en "minneskanal".

Fury X har 128-bitars bredd per kanal, totalt 32 kanaler där varje kanal då får 16GB/s bandbredd.
390x har 32-bitars bredd per kanal, totalt 16 kanaler där varje kanal då får 24GB/s bandbredd.

Allt VRAM är multiplexat över de tillgängliga kanalerna, vad jag läst så delar både AMD och Nvidia upp minnet i 1kB regioner över kanalerna, så M+0 - M+1024 går till kanal#0, M+1024 - M+2048 går till kanal#1 osv. Man får alltså bara full bandbredd när minnesaccesserna sprider sig jämt över alla kanaler, är det en ojämn distribution (t.ex. p.g.a att det data man jobbar med är relativt litet) så har 390x i praktiken tillgång till mer bandbredd än Furu X.

Överklockning av RAM ger högre bandbredd per kanal, så om man råkar ha ett fall där accesserna inte är väldigt jämt utspridda så skulle överklockning av HBM faktiskt kunna ge en bump i prestanda. Är accesserna väl utspridda tvivlar jag starkt på att man ser någon som helst skillnad, 512GB/s är galet mycket bandbredd för något som inte är en ren cache.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Man ska nog vänta till några till rapporterar samma sak innan man ska tro på det. Det är dock inte helt orimligt att Fury X kommer tjäna på att överklocka minnet i vissa lägen, något som kan te sig lite ologiskt givet den massiva bandbredden.

Tittar man på hur minneshierarkin är uppdelad, låt oss använda R9 390x som referens, så visa specifikationerna saker som bredd ("antal bitar"), frekvens (egentligen transfers/s då verkliga frekvensen är lägre) och aggregerad bandbredd.

För Fury X är bredden 4096-bitar, frekvensen 1.0GHz och total bandbredd 512GB/s
För 390x är bredden 512-bitar, frekvensen 6.0GHz och total bandbredd 384GB/s

Sett till total bandbredd borde Fury X överhuvudtaget inte ha detta som flaskhals. Om man däremot tittar på enskilda minnestransaktioner måste man borra lite djupare i hur minnet är organiserat. Varje minnesaccess kommer att gå till en viss minneskrets, data läses/skrives genom en "minneskanal".

Fury X har 128-bitars bredd per kanal, totalt 32 kanaler där varje kanal då får 16GB/s bandbredd.
390x har 32-bitars bredd per kanal, totalt 16 kanaler där varje kanal då får 24GB/s bandbredd.

Allt VRAM är multiplexat över de tillgängliga kanalerna, vad jag läst så delar både AMD och Nvidia upp minnet i 1kB regioner över kanalerna, så M+0 - M+1024 går till kanal#0, M+1024 - M+2048 går till kanal#1 osv. Man får alltså bara full bandbredd när minnesaccesserna sprider sig jämt över alla kanaler, är det en ojämn distribution (t.ex. p.g.a att det data man jobbar med är relativt litet) så har 390x i praktiken tillgång till mer bandbredd än Furu X.

Överklockning av RAM ger högre bandbredd per kanal, så om man råkar ha ett fall där accesserna inte är väldigt jämt utspridda så skulle överklockning av HBM faktiskt kunna ge en bump i prestanda. Är accesserna väl utspridda tvivlar jag starkt på att man ser någon som helst skillnad, 512GB/s är galet mycket bandbredd för något som inte är en ren cache.

Så om jag fattar vad du nyss skrev rätt. Om detta test stämmer och dom lyckades överlcocka minnet och fick detta resultat och överclockningen på minnet gav prestandaökning så kanske drivrutinerna ger ut datan fel och inte delar ut till alla kanaler utan prioriterar vissa över andra vilket då gav det en ganska stor prestanda ökning då dom som fick mest jobb helt enkelt klarade av mer?

Permalänk
Datavetare
Skrivet av Fatty:

Så om jag fattar vad du nyss skrev rätt. Om detta test stämmer och dom lyckades överlcocka minnet och fick detta resultat och överclockningen på minnet gav prestandaökning så kanske drivrutinerna ger ut datan fel och inte delar ut till alla kanaler utan prioriterar vissa över andra vilket då gav det en ganska stor prestanda ökning då dom som fick mest jobb helt enkelt klarade av mer?

Om detta stämmer så kan prestandaökningen bero på att flaskhalsen var bandbredd per kanal, inte aggregerad bandbredd. Bandbredd per kanal kan vara en faktor om programmet av någon anledning lastar vissa kanaler mycket mer än andra.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Discokungen

@Yoshman hur ser det ut med latenser och dylikt? När jag köpte 290/X vid release så mineade jag mycket cryptocoins med dem. I det läget så gick det i princip inte att klocka minnet utan att få försämrad prestanda. Efter ett par månader så släppte en kille ett custom BIOS med lägre latenser vid samma frekvenser på minnet än stock som förmodligen hade lite mer marginaler för olika minnen. Det gav rätt avsevärt mycket bättre prestanda då mining är sjukt tungt på minnet. Hawaii hade också ganska extremt hög bandbredd i förhållande till vad som faktiskt behövdes men även där gjorde det nytta och man kunde nästan krama ur 20-30% högre prestanda med enbart den tweaken. Visst är det extremt annorlunda beräkningar men gör det någon skillnad i spelprestanda?

Visa signatur

AMD 9800X3D - Corsair 32GB 6000 CL30- Gigabyte B650 Aorus Elite - Inno3D 4090 - Intel 900p - CaseLabs SMA8 - LG 42C2 - Asus Loki 1000W SFX-L - Aquaero 6 - Vattenkyld - Steam Deck LCD 1TB

Permalänk
Datavetare
Skrivet av Flamso:

@Yoshman hur ser det ut med latenser och dylikt? När jag köpte 290/X vid release så mineade jag mycket cryptocoins med dem. I det läget så gick det i princip inte att klocka minnet utan att få försämrad prestanda. Efter ett par månader så släppte en kille ett custom BIOS med lägre latenser vid samma frekvenser på minnet än stock som förmodligen hade lite mer marginaler för olika minnen. Det gav rätt avsevärt mycket bättre prestanda då mining är sjukt tungt på minnet. Hawaii hade också ganska extremt hög bandbredd i förhållande till vad som faktiskt behövdes men även där gjorde det nytta och man kunde nästan krama ur 20-30% högre prestanda med enbart den tweaken. Visst är det extremt annorlunda beräkningar men gör det någon skillnad i spelprestanda?

Att latens spelade större roll än bandbredd för mining är helt logiskt, det man gör här är att variera ett slumptal (som kallas "noice") för att hitta sådana slumptal som ger ett viss värde när de ingår i data som man beräknar SHA-256 för.

Faktum är att bandbredd lär vara helt irrelevant för mining, att VRAM latens ens spelar roll måste bero på att man ibland inte får plats med alla data som behövs för beräkningen helt i L2-cache och när det händer är latans mot VRAM det enda som spelar roll. Mining var som hand i handsken för VLIW, vilket är förklaringen till att de äldre AMD-korten hanterar detta bättre än GCN och bättre än något Nvidia haft.

Så vitt jag förstått det så har HBM mycket lägre latens räknat i cykler, men då frekvensen är ~1GHz i stället för 5-6GHz så är den faktiskt latensen i tid ungefär den samma. Har hört/läst att HBM2 kommer ge latenser som även i faktiskt tid är lägre än HBM1/GDDR5.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Att latens spelade större roll än bandbredd för mining är helt logiskt, det man gör här är att variera ett slumptal (som kallas "noice") för att hitta sådana slumptal som ger ett viss värde när de ingår i data som man beräknar SHA-256 för.

Faktum är att bandbredd lär vara helt irrelevant för mining, att VRAM latens ens spelar roll måste bero på att man ibland inte får plats med alla data som behövs för beräkningen helt i L2-cache och när det händer är latans mot VRAM det enda som spelar roll. Mining var som hand i handsken för VLIW, vilket är förklaringen till att de äldre AMD-korten hanterar detta bättre än GCN och bättre än något Nvidia haft.

Så vitt jag förstått det så har HBM mycket lägre latens räknat i cykler, men då frekvensen är ~1GHz i stället för 5-6GHz så är den faktiskt latensen i tid ungefär den samma. Har hört/läst att HBM2 kommer ge latenser som även i faktiskt tid är lägre än HBM1/GDDR5.

Hur ser det ut för kommande Pascal och Arctic Islands, kommer alla kort få HBM? Är HBM en så stor del av arkitekturen att kort i alla segment får det, eller blir det för dyrt? I så fall, kommer vi återigen bara se tradiga rebrands för low- och midend? Kan man tänka sig att HBM1 används för dem billigare modellerna och HBM2 för dem dyrare?

Visa signatur

Bästa trådstarten någonsin.

Asus Zenbook UX430: 8550U, MX150, 16 GiB, 1 TB

Permalänk
Datavetare
Skrivet av MakeCoke:

Hur ser det ut för kommande Pascal och Arctic Islands, kommer alla kort få HBM? Är HBM en så stor del av arkitekturen att kort i alla segment får det, eller blir det för dyrt? I så fall, kommer vi återigen bara se tradiga rebrands för low- och midend? Kan man tänka sig att HBM1 används för dem billigare modellerna och HBM2 för dem dyrare?

Det man rätt säker kan säga är: HBM kommer bli billigare med tiden. HBM lär användas i alla GPU-segment i något läge, om inte annat för dess positiva effekter på perf/W.

Om det händer med Pascal/Arctic Islands... Det får du nog fråga någon som har högre level i framtidsskådande än vad jag har

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Discokungen
Skrivet av Yoshman:

Att latens spelade större roll än bandbredd för mining är helt logiskt, det man gör här är att variera ett slumptal (som kallas "noice") för att hitta sådana slumptal som ger ett viss värde när de ingår i data som man beräknar SHA-256 för.

Faktum är att bandbredd lär vara helt irrelevant för mining, att VRAM latens ens spelar roll måste bero på att man ibland inte får plats med alla data som behövs för beräkningen helt i L2-cache och när det händer är latans mot VRAM det enda som spelar roll. Mining var som hand i handsken för VLIW, vilket är förklaringen till att de äldre AMD-korten hanterar detta bättre än GCN och bättre än något Nvidia haft.

Så vitt jag förstått det så har HBM mycket lägre latens räknat i cykler, men då frekvensen är ~1GHz i stället för 5-6GHz så är den faktiskt latensen i tid ungefär den samma. Har hört/läst att HBM2 kommer ge latenser som även i faktiskt tid är lägre än HBM1/GDDR5.

Det verkar klart vettigt.

Trots det så fylldes minnet med minst 1GB men det behöver självklart inte betyda att mycket av den datan användes hela tiden.

Gör det skillnad i spel då? I det läget bör väl överklockning förbättra latensen i tid?

Visa signatur

AMD 9800X3D - Corsair 32GB 6000 CL30- Gigabyte B650 Aorus Elite - Inno3D 4090 - Intel 900p - CaseLabs SMA8 - LG 42C2 - Asus Loki 1000W SFX-L - Aquaero 6 - Vattenkyld - Steam Deck LCD 1TB

Permalänk
Medlem
Skrivet av Hymer:

@SectionX2: Skills då ;D Såg att några hade kommit in på Inet men dom försvann lika fort.

Inet fick in fyra stycken. Tog 1 ☺

Skickades från m.sweclockers.com

Visa signatur

Ryzen 7800X3D
32GB DDR5
RX 7900XT

Permalänk
Medlem

Suck om jag inte får tag på ett denna vecka kommer det bli ett 980 ti istället.

Permalänk
Medlem

Objektiv som jag alltid förhåller mig så måste jag denna gång klaga på AMD's drivrutiner. Jag har också kontaktat AMD om detta och mer eller mindre gett dom hårt på näsan att fixa prestandan, speciellt på Fury. Vi kommer säkert få se hur samtliga CGN kort kommer skina i DX12 eller nya version av DX11 med minskad overhead och använding av asynkrona beräkningsenheter.

Jag vet att Fury är ett monster som borde kunna utprestera GM200 utan problem och den tiden kanske kommer, men jag väljer personligen att avvakta med ett köp på grund av det.

Dom har också en optimeringsguide för utvecklare till Fury/GCN 1.3 som gör en hel del prestandaskillnader. Rasterenheterna uppskattas ha samma teoretiska kapacitet som i 290X, men dom är omarbetade och är mer lika dom i Tonga som stödjer en annan typ av färgkompressionsalgoritm. Det är inte bara att ta antalet rasterenheter multiplicerat med GPU frekvens och se på teoretisk fillrate. Saker som bländing i MSAA, Z/stencil uppgifter för skuggsättning osv är andra faktorer som peak fillrate inte tar hänsyn till. Fury har också åtkomst till sitt minne via TMU'erna som är rejält uppbiffade med 256st.

Hade rasterenheterna varit en ren begränsning i alla scenarion så hade Fury X inte prestesterat så väl i 4K upplösningar.

Fiji behöver lite tid att mogna då det finns _MYCKET_ att hämta, men det är definitivt upp till AMD att snabbt optimera drivers. Det man kan skatta sig glad över är nog att AMD korten kommer skina i många spel framöver på grund av AMD hårdvara i alla konsolspel, men jag hoppas att utvecklarna tar sig tid att använda dom extrema resurser som finns i Fiji.

Någon annan rapporterade också att 100Mhz ökning av HBM minnet, dvs 20% ökade prestanda ganska mycket i bl.a 3DMark. Vi kanske också kan få se på ståorre överklockningar av GPU så fort man kan ändra spänningen till GPU. Kylningen lär hänga med för även rejäla överklockningar. Hoppas också att dom fixar problemet med surret från pumparna, annars är kylningslösningen på Fury X korten episk.

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av Ashwind:

Suck om jag inte får tag på ett denna vecka kommer det bli ett 980 ti istället.

NetonNet har XFX i lager ser det ut som. Passa på då dom verkar försvinna ganska snabbt lol.

http://www.netonnet.se/art/komponenter/grafikkort/amd/xfx-radeonr9furyx/219416.8988/

Visa signatur

R5 5600X | ASUS ROG Strix B550-F | HyperX Fury RGB 3200MHz 32GB | Sapphire Radeon RX 6800 | Corsair TX750M, 750W Gold | Corsair 4000D Airflow

Permalänk
Medlem

Jag tror inte på denna infon. Varför skulle då inte AMD höjt prestandarden 10-15% så det skulle bli en klar vinnare och med den fördelen kunna ta marknads andelar. Detta istället för som det blev nu endast lika med 980TI och som inte ger lika mycket gratis PR.

Skrivet av Fatty:

jag tittade på reddit och såg någon som pratade om att det var en sida som hittade en bugg så dom kunde överclocka minnet i furyx med 20%! vet ej om det är riktigt eller ej, men om det är riktigt så är det riktigt imponerande!

http://uk.hardware.info/reviews/6158/19/amd-radeon-r9-fury-x-...

Vad tror ni, tror ni man kan lita på dom eller?

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Datavetare
Skrivet av 2good4you:

Objektiv som jag alltid förhåller mig så måste jag denna gång klaga på AMD's drivrutiner. Jag har också kontaktat AMD om detta och mer eller mindre gett dom hårt på näsan att fixa prestandan, speciellt på Fury. Vi kommer säkert få se hur samtliga CGN kort kommer skina i DX12 eller nya version av DX11 med minskad overhead och använding av asynkrona beräkningsenheter.

Jag vet att Fury är ett monster som borde kunna utprestera GM200 utan problem och den tiden kanske kommer, men jag väljer personligen att avvakta med ett köp på grund av det.

Dom har också en optimeringsguide för utvecklare till Fury/GCN 1.3 som gör en hel del prestandaskillnader. Rasterenheterna uppskattas ha samma teoretiska kapacitet som i 290X, men dom är omarbetade och är mer lika dom i Tonga som stödjer en annan typ av färgkompressionsalgoritm. Det är inte bara att ta antalet rasterenheter multiplicerat med GPU frekvens och se på teoretisk fillrate. Saker som bländing i MSAA, Z/stencil uppgifter för skuggsättning osv är andra faktorer som peak fillrate inte tar hänsyn till. Fury har också åtkomst till sitt minne via TMU'erna som är rejält uppbiffade med 256st.

Hade rasterenheterna varit en ren begränsning i alla scenarion så hade Fury X inte prestesterat så väl i 4K upplösningar.

Fiji behöver lite tid att mogna då det finns _MYCKET_ att hämta, men det är definitivt upp till AMD att snabbt optimera drivers. Det man kan skatta sig glad över är nog att AMD korten kommer skina i många spel framöver på grund av AMD hårdvara i alla konsolspel, men jag hoppas att utvecklarna tar sig tid att använda dom extrema resurser som finns i Fiji.

Någon annan rapporterade också att 100Mhz ökning av HBM minnet, dvs 20% ökade prestanda ganska mycket i bl.a 3DMark. Vi kanske också kan få se på ståorre överklockningar av GPU så fort man kan ändra spänningen till GPU. Kylningen lär hänga med för även rejäla överklockningar. Hoppas också att dom fixar problemet med surret från pumparna, annars är kylningslösningen på Fury X korten episk.

Om du kör utan anisotropic filtering, utan MSAA och utan vissa typer av skuggeffekter så är ROPs överhuvudtaget inte en flaskhals på någon av dagens high-end GPUer. Däremot är det nog fortfarande möjligt att VRAM-bandbredd är en flaskhals om man rejält skruvar upp upplösningen.

Anisotropic filtering och MSAA ger multiplikator effekter på hur mycket last rastreringssteget "ser", men däremot ökar inte alls VRAM-bandbredden speciellt mycket då dessa saker har väldigt hög lokalitet -> cache kommer hantera majoriteten av alla minessaccesser som kommer från detta. Finns en anledning varför L2-cache sitter ihop med ROPs både i AMDs och Nvidias designer, trots att L2-cachen även är användbart för beräkningssteget (GCN/CUDA-cores).

Z/frame-buffer komprimering ökar inte kapacitet på ROP, de minskar trycket på VRAM-bussen. Givet bandbredden Fury X har så lär komprimering inte hjälpa supermycket, något som går att visa med syntetiska tester. Notera hur mycket mer Maxwell tjänar på svart textur (som är trivial att komprimera) mot slumpmässig textur (som i princip inte alls kan komprimeras), en viss vinst finns ändå vilket skulle kunna förklaras med högre L2-cache-hit-rate tack vare kompression

Så du kan inte dra slutsatsen att rastreringsenheterna aldrig är en begränsning för det ser bra ut i de 4k tester som gjorts. Kör man med lite lägre upplösning och hög MSAA/anisotropic filtering är det nog till och med sannolikt att dessa blir en flaskhals. De resultat som AMD "läckte" precis innan release är av allt att döma genuina, där var man signifikant snabbare än 980ti genom att köra 4k utan MSAA, utan anisotropic filtering och väldigt dyra ljusberäkningar. Att man kunde få dessa resultat ger också en vink om att drivarna kanske inte är så stor flaskhals, är ju inget som direkt påverkar kostnaden i drivarna bara för att MSAA/AF är avslaget.

Givet vad som är känt idag: peka på något som bevisar att drivarna signifikant håller tillbaka prestanda. Det närmaste jag hittar är att "lag-spikarna" i Fury X är rätt höga (högre än "vanliga" 980 även i 4k enligt TechReports mätningar). Anta att detta är drivers, i så fall är det inte specifikt till Fiji för där har man ändå klart bättre resultat än för 290x som vid det här laget borde ha rätt bra drivare. Är fullt möjligt, till och med troligt, att man kan förbättra detta genom drivare men finns fortfarande en (liten) risk att det faktiskt är ett HW-problem.

Skrivet av Flamso:

Det verkar klart vettigt.

Trots det så fylldes minnet med minst 1GB men det behöver självklart inte betyda att mycket av den datan användes hela tiden.

Gör det skillnad i spel då? I det läget bör väl överklockning förbättra latensen i tid?

Latens mot VRAM har normalt sett väldigt lite påverkan på prestanda i "vanlig" grafik. För GPGPU finns fall när det spelar roll, som t.ex. mining.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer