AMD tillkännager "Polaris" Radeon RX 480 – kostar drygt 2 000 kronor

Permalänk
Medlem
Skrivet av Ownage:

Enligt dessa tester så skulle 2st rx 480 slå gtx 1080 på fingrarna och ändå kosta totalt flera tusenlappar mindre! Låter för bra för att va sant.

Inget vidare bra faktiskt. Hoppas de löser det där med GPU-belastningen i drivrutinen snart. Under 390X i nuläget. :/

Permalänk
Medlem
Skrivet av stef88:

Detta visar ungefär samma sak som den tidigare läckan visade. Ganska exakt samma skillnad. 62% performance till 33% av priset. Ganska bra perf/kr där. Och med "ganska bra", så menar jag SINNESSJUKT BRA.

Skrivet av Aleshi:

Inget vidare bra faktiskt. Hoppas de löser det där med GPU-belastningen i drivrutinen snart. Under 390X i nuläget. :/

Det beror på. Kan ju vara skitsnack också :). 10 tflops borde ju slå 8.? tflops, med kanske ungefär det värdet. 51% effektivitet undrar jag starkt över. De MÅSTE syfta på utiliseringen av det andra kortet i CF, inte den totala. Sen finns det så klart skillnader som påverkar fantastiskt mycket beroende på om de använder saker som fungerar bättre på ett kort än ett annat, men jag tror på de benchar jag sett tills det kommer fler. 60% av 1080 är vad jag ser på de två "läckorna".

Benchen högst upp i mitt inlägg kör singelkort i DX12. 480 och 1080. Behövs många fler för att få något definitivt man kan lite på, men det kanske kan ses som en trolig indikation.

Jag resonerar så här, att båda spelarna i detta spelet är mycket erfarna, så det är ganska osannolikt att någon av dem gör ett "quantum-leap" så här långt in i leken, som möjliggör att ett billigt mellanklasskort slår det andra lagets toppkort på fingrarna, till en tredjedel av priset.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Kommer ett kraftigare 480XT?

Visa signatur

Fractal Design Define R5 , I7 4790K@4800mhz ,Corsair vengeance 2400Mhz@2600 CL 11 16GB ,Cooler master V850 , Fury X ,MSI Z97 Gaming 9 AC , Samsung 840 Evo 500GB +1tb hdd , Corsair H100i.
Asus vn247h

Permalänk
Inaktiv

Hm, glömde kommentera det tidigare. Intressant längd på PCB't. Bortsett från Fiji-baserade korten med HBM-minnen så har AMD's grafikkort på senare år varit väldigt långa. Trevligt att just denna blir lite kortare, även om referenskylare sticker ut utanför (likt ref. GTX 670). Borde gå att få rätt kompakta modeller från partnertillverkarna, kanske skulle vara aktuellt med en spelbar HTPC framöver för egen del. Mitt gamla Antec Fusion Black-chassi är rätt petig med kortlängder.

http://www.guru3d.com/news-story/amd-radeon-rx-480-photos.htm...

Permalänk
Medlem
Skrivet av Granter:

2st 480 i 50% fart = ett 1080gtx. De kan man väl tolka som att om ett 480 körs 100% så motsvarar det ett 1080?

Man kan tolka det så, men alla andra benches visar att ett 480 är 60-62% av ett 1080. Det är till och med en bench i AOS. Så vad de säger på en presskonferans, tar jag med en nypa salt. Det är under någon idealisk föreutsättning.

Sanningen ligger nog närmare 62% än 100%, skulle jag tro.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Yoshman:

Använde MSIs "Gaming App" och det mätte när jag körde lite olika spel med vsync påslaget. GPU-frekvensen är alltid 1348 MHz när man kör spel. Det lustiga med den frekvensen är att kortet inte är överklockat utöver att det körs i "OC-läget" (som är officiell "fabriksöverklockning" för kortet) i MSIs "Gaming app", enligt specifikation så är maximal turbo 1279 MHz i detta läge. Har i.o.f.s. väldigt bra kylning av GPUn, två 120 mm chassifläktar trycker in luft rakt in i GPUn.

Att mäta GPU-lasten är ju rätt trivialt för drivaren, det är andelen det finns minst ett jobb "in-flight" på GPUn. Förändring av frekvensen har, precis som på CPUer, en viss hysteres då det tar ganska lång tid att stabilisera klockan på en ny nivå. Lång tid i dessa sammanhang är tiotals millisekunder, d.v.s. ligger man på 50 % last eller mer bör man stanna på maximal frekvens.

Skylakes Speedshift-teknik hoppar väl mellan frekvenser på 1ms, men den tar längre tid på sig att upptäcka att den ska byta frekvens. Nu är ju även 1ms rätt lång tid, även vid 60Hz uppdatering så blir väl idle bara 3ms eller något sådant så det är nog inte möjligt att den klockar ner sig för så kort tid.
Kan det vara att enheterna i kretsen har väldigt strömsnåla NOOP-instruktioner om den fortfarande går på full frekvens? Eller att bara vissa delar kör på den frekvensen?

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Avstängd

5870 du har varit saknad välkommen tillbaka.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av _Merc_:

5870 du har varit saknad välkommen tillbaka.

5870 var ett otroligt bra kort på sin tid, men detta kort är ett mellanklasskort och som man faktiskt har råd med och kan skaffa ett till senare

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av kelthar:

Detta visar ungefär samma sak som den tidigare läckan visade. Ganska exakt samma skillnad. 62% performance till 33% av priset. Ganska bra perf/kr där. Och med "ganska bra", så menar jag SINNESSJUKT BRA.

Det beror på. Kan ju vara skitsnack också :). 10 tflops borde ju slå 8.? tflops, med kanske ungefär det värdet. 51% effektivitet undrar jag starkt över. De MÅSTE syfta på utiliseringen av det andra kortet i CF, inte den totala. Sen finns det så klart skillnader som påverkar fantastiskt mycket beroende på om de använder saker som fungerar bättre på ett kort än ett annat, men jag tror på de benchar jag sett tills det kommer fler. 60% av 1080 är vad jag ser på de två "läckorna".

Benchen högst upp i mitt inlägg kör singelkort i DX12. 480 och 1080. Behövs många fler för att få något definitivt man kan lite på, men det kanske kan ses som en trolig indikation.

Jag resonerar så här, att båda spelarna i detta spelet är mycket erfarna, så det är ganska osannolikt att någon av dem gör ett "quantum-leap" så här långt in i leken, som möjliggör att ett billigt mellanklasskort slår det andra lagets toppkort på fingrarna, till en tredjedel av priset.

Jag pratar ju om testet med en RX 480. Borde slå 390X ändå kan man tycka. vid 5.5 vs. 5.9 GFLOPS. Trots allt så har Polaris en del fler transistorer dedikerade till att få ut mer av den teoretiska prestandan. Men det är klart, GCN ligger ju redan högt där i just DX12 så kanske inte ser så stora vinster i just DX12. Men tror ändå att de har problem med GPU-utnyttjandet.

Och nej, det är fullkomligt orimligt att de syftar till den extra GPUn i AMDs bench. Det är inte så CF fungerar att en GPU är på 100% och en på 50% om du får ut 150% av prestandan. Om de skriver 50% GPU-användning så är det vad de menar.

Permalänk
Medlem
Skrivet av anon5930:

Vad gäller GPU-användningen får det mig att undra om AdoredTVs spekulation om att AMD satsat hårt på applikationer där flera GPUer används ihop där de också används effektivare än tidigare. Mycket av den teorin grundade sig i scenariot där troligen Sony skulle stoppa in mer än en AMD GPU i nya PS4an.

Är väl det som gör grafen hyffsat begriplig. Annars var det ett udda val att visa upp vad kretsen går för.

Skickades från m.sweclockers.com

Adores spekulation om det gällde väl i så fall nästa generations konsoler, alltså typ PS5. Han menade att denna (Polaris och Vega) skulle kunna vara den sista "vanliga" generationen, och att nästa skulle bygga på att sätta ihop flera mindre chip till en större på en interposer pga växande svårigheter med större chip samt att det möjligen inte blir fler noder för högpresterande grafikchip.

Dock är väl konceptet med interposer inte fullt så moget ännu. Och jag tycker att man i så fall borde hört åtminstone något spår av det i ett rykte om de skulle göra så redan i PS4K.

Skrivet av Yoshman:

...

Du bor inte i Sverige va? Det var 5 grader "varm" den tidiga morgon förra året i juli när vi drog till värmen

Jag vet inte var i Sverige du egentligen bor, men här var det 27° större delen av dagen, och då var det ändå ganska disigt och mycket blåsigt.

Skrivet av Daark:

Undrar lite hur överklockningspotentialen är? Skulle vara kul om man kan överklocka den lite som 970 vart, så man får ännu bättre prestanda för kronan, dock så har vi ju sätt med Nvidias FinFet så blir korten väldigt varma. Så det kan bli problem för AMD också på den fronten.

Det är ett generellt problem med finFET att chipen blir svåra att kyla, då värmen alstras även lite på höjden i chippet.

Skrivet av MinscS2:

...
2) Dom använder sig av Ashes of Singularity. (Jag är så trött på att läsa om detta spel i prestandasammanhang.)
...

Varför då? Det är en utmärkt prestandamätare, särskilt för DX12.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Avstängd
Skrivet av Herr Kantarell:

5870 var ett otroligt bra kort på sin tid, men detta kort är ett mellanklasskort och som man faktiskt har råd med och kan skaffa ett till senare

5870 var också det mest prisvärda kortet någonsin fram till 480 och skalade som en gud i crossfire.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av GilbertG:

Varför då? Det är en utmärkt prestandamätare, särskilt för DX12.

Sanning med modifikation. Det är snarare en prestandamätare för en viss form av DX12 som favoriserar det som AMD-korten är bra på och Nvidias kort är sämre på. @Yoshman har förklarat detta ett antal gånger och kan tekniken bakom bättre än vad jag någonsin kommer att göra.

Vidare så stör jag mig på det för att det är ett totalt ointressant spel för min egen del, samt för att det är AMDs go-to spel för PR hela tiden. Jag vill veta hur deras kort presterar i fler spel, inte bara AoS.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Avstängd
Skrivet av MinscS2:

Sanning med modifikation. Det är snarare en prestandamätare för en viss form av DX12 som favoriserar det som AMD-korten är bra på och Nvidias kort är sämre på. @Yoshman har förklarat detta ett antal gånger och kan tekniken bakom bättre än vad jag någonsin kommer att göra.

Vidare så stör jag mig på det för att det är ett totalt ointressant spel för min egen del, samt för att det är AMDs go-to spel för PR hela tiden. Jag vill veta hur deras kort presterar i fler spel, inte bara AoS.

Då får du vänta till recensionerna dyker upp på t.ex. Sweclockers. AMD har inte tid och det finns inte nog med incitament att med nog med spel för att mätta de krävande.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Tumnus:

Då får du vänta till recensionerna dyker upp på t.ex. Sweclockers.

Ja?
GilbertG undrade varför jag störde mig på AoS som referensram. Jag varken kräver eller förväntar mig att AMD ska göra si och så - varför dom använder sig av AoS är ju självklart.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Inaktiv
Skrivet av GilbertG:

Adores spekulation om det gällde väl i så fall nästa generations konsoler, alltså typ PS5. Han menade att denna (Polaris och Vega) skulle kunna vara den sista "vanliga" generationen, och att nästa skulle bygga på att sätta ihop flera mindre chip till en större på en interposer pga växande svårigheter med större chip samt att det möjligen inte blir fler noder för högpresterande grafikchip.

Dock är väl konceptet med interposer inte fullt så moget ännu. Och jag tycker att man i så fall borde hört åtminstone något spår av det i ett rykte om de skulle göra så redan i PS4K.

Jag vet inte var i Sverige du egentligen bor, men här var det 27° större delen av dagen, och då var det ändå ganska disigt och mycket blåsigt.

Det är ett generellt problem med finFET att chipen blir svåra att kyla, då värmen alstras även lite på höjden i chippet.

Varför då? Det är en utmärkt prestandamätare, särskilt för DX12.

Det har du rätt i, jag har blandat ihop nya PS4 med PS5. Lite längre tills en sådan satsning isåfall.

Skrivet av _Merc_:

5870 var också det mest prisvärda kortet någonsin fram till 480 och skalade som en gud i crossfire.

Du tänker inte på 4870? Priserna på både 4850 och 4870 var riktigt låga och Nvidia fick prissänka deras dyra 260 och 280-kort vid AMDs lansering.

5800-serien var riktigt fin och en av de serier jag gillat mest, även om 290 seglat om rejält vid detta lag. Snabba och sjukt effektiva kort, Eyefinity och den extremt läckra Eyefinity-6 utgåvan av HD5870. 6st Mini-DisplayPort kontakter.

CF skalningen var dålig, i nivå med hur CF och SLI fungerade på den tiden. Nvidia löste skalningen ett halvår senare i och med 400-serien. För AMD skedde det först i och med 6000-serien.

Skickades från m.sweclockers.com

Permalänk
Hjälpsam
Skrivet av MinscS2:

Sanning med modifikation. Det är snarare en prestandamätare för en viss form av DX12 som favoriserar det som AMD-korten är bra på och Nvidias kort är sämre på. @Yoshman har förklarat detta ett antal gånger och kan tekniken bakom bättre än vad jag någonsin kommer att göra.

Vidare så stör jag mig på det för att det är ett totalt ointressant spel för min egen del, samt för att det är AMDs go-to spel för PR hela tiden. Jag vill veta hur deras kort presterar i fler spel, inte bara AoS.

Du får nog vänja dig vid att majoriteten av DX12 spel är sponsrade av AMD, Nvidia gör inte mycket för att få in DX12 i spelen.
RoTR tycker jag inte är något bra exempel, där går både Nvidia och AMD ofta sämre i DX12.
https://steamcommunity.com/app/391220/discussions/0/405694115...

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Inaktiv
Skrivet av Ratatosk:

Du får nog vänja dig vid att majoriteten av DX12 spel är sponsrade av AMD, Nvidia gör inte mycket för att få in DX12 i spelen.
RoTR tycker jag inte är något bra exempel, där går både Nvidia och AMD ofta sämre i DX12.
https://steamcommunity.com/app/391220/discussions/0/405694115...

Precis, spelar nog ingen större roll vilket DX12-spel man väljer att testa med då Nvidias kort och stöd är som det är.

Nu tycker jag att både AotS och RoTR båda är spel som fungerar bra att testa med. Mindre så med RoTR då implementationen är så pass dålig men även denna titel ger ju en bild av hur DX12-spel presterar på olika kort.

Varför vissa envisas med att främst AotS men även andra DX12-titlar inte får testas med bör vara rätt uppenbart för de flesta.

Skickades från m.sweclockers.com

Permalänk
Datavetare
Skrivet av MinscS2:

Sanning med modifikation. Det är snarare en prestandamätare för en viss form av DX12 som favoriserar det som AMD-korten är bra på och Nvidias kort är sämre på. @Yoshman har förklarat detta ett antal gånger och kan tekniken bakom bättre än vad jag någonsin kommer att göra.

Vidare så stör jag mig på det för att det är ett totalt ointressant spel för min egen del, samt för att det är AMDs go-to spel för PR hela tiden. Jag vill veta hur deras kort presterar i fler spel, inte bara AoS.

AoS ger definitivt intressanta resultat, men jämför man de resultaten med vilket annat spel som helst på marknaden så borde det vara uppenbart att AoS representerar ett extremfall. Vill absolut att man tar med AoS resultaten i detta läge då det helt enkelt är brist på DX12 titlar, det jag haft kritik mot är när man sedan extrapolerar det resultatet, i sann ekonomisk "analytiker" anda, till att gälla generellt för DX12.

Än mer konstigt blev det i 1080/1070 testerna där SweClockers redaktionen testade tre olika titlar med DX12 stöd, av någon anledning var flera som skrev kommenterar totalt blind för RoTR resultatet (där 780Ti ligger väldigt nära Fury X i 1920x1080). Här menade vissa att RoTR har en trasig DX12 implementation, vilket inte är sant. Största fördelen med DX12 är minskad CPU-belastning, kör man RoTR med stark GPU och svag CPU, en konfiguration i princip ingen har i.o.f.s, så presterar även denna titel klart bättre med DX12. Är bara det att flaskhalsen för RoTR inte är shaders, det är i stället en massiv mängd trianglar i varje scen och det är något Nvidias GPUer är betydligt starkare än AMDs på.

Även i Hitman fanns konstiga slutsatser, AMD presterade i stort sätt precis lika bra i DX11 som DX12 men ändå lyftes resultatet flera gånger fram som om Nvidia specifikt hade problem i DX12, titeln är extremt shader-tung och AMDs kort är extremt stark på detta. Att AMD även presterar bra i DX11 tyder på att man kör relativt få shaders (få draw-calls), fast var för sig relativt komplexa.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

@Yoshman: Ok, får väl söka lite efter fler tester av RoTR, jag har ju haft fel förut.
edit Letat lite men inte funnit något som stödjer en fps boost vid lägre cpu-kraft, kan vara det att de flesta tester är ganska gamla?

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem

Är riktigt dåligt insatt i moder- och grafikkort. Kommer jag att kunna använda det här grafikkortet på mitt moderkort?

Visa signatur

En av två halvor i spelpodcasten Gejma. 🎮

Permalänk
Medlem

@Anwest:
Det ska inte vara några som helst problem.

Permalänk
Medlem

Angående testat av AoS så svarade Robert Hallock (Head of Global Technical Marketing at AMD).

Hi. Now that I'm off of my 10-hour airplane ride to Oz, and I have reliable internet, I can share some insight.

System specs:

CPU: i7 5930K
RAM: 32GB DDR4-2400Mhz
Motherboard: Asrock X99M Killer
GPU config 1: 2x Radeon RX 480 @ PCIE 3.0 x16 for each GPU
GPU config 2: Founders Edition GTX 1080
OS: Win 10 64bit
AMD Driver: 16.30-160525n-230356E
NV Driver: 368.19

In Game Settings for both configs: Crazy Settings | 1080P | 8x MSAA | VSYNC OFF

Ashes Game Version: v1.12.19928

Benchmark results:

2x Radeon RX 480 - 62.5 fps | Single Batch GPU Util: 51% | Med Batch GPU Util: 71.9 | Heavy Batch GPU Util: 92.3% GTX 1080 – 58.7 fps | Single Batch GPU Util: 98.7%| Med Batch GPU Util: 97.9% | Heavy Batch GPU Util: 98.7%

The elephant in the room:

Ashes uses procedural generation based on a randomized seed at launch. The benchmark does look slightly different every time it is run. But that, many have noted, does not fully explain the quality difference people noticed.

At present the GTX 1080 is incorrectly executing the terrain shaders responsible for populating the environment with the appropriate amount of snow. The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly. Snow is somewhat flat and boring in color compared to shiny rocks, which gives the illusion that less is being rendered, but this is an incorrect interpretation of how the terrain shaders are functioning in this title.

The content being rendered by the RX 480--the one with greater snow coverage in the side-by-side (the left in these images)--is the correct execution of the terrain shaders. http://imgur.com/a/pyC3r

So, even with fudgy image quality on the GTX 1080 that could improve their performance a few percent, dual RX 480 still came out ahead.

As a parting note, I will mention we ran this test 10x prior to going on-stage to confirm the performance delta was accurate. Moving up to 1440p at the same settings maintains the same performance delta within +/-1%.

https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_a...

@yoshman @ratatosk @aleshi @kelthar

Permalänk
Medlem
Skrivet av Jonathanknet:

Angående testat av AoS så svarade Robert Hallock (Head of Global Technical Marketing at AMD).

Hi. Now that I'm off of my 10-hour airplane ride to Oz, and I have reliable internet, I can share some insight.

System specs:

CPU: i7 5930K
RAM: 32GB DDR4-2400Mhz
Motherboard: Asrock X99M Killer
GPU config 1: 2x Radeon RX 480 @ PCIE 3.0 x16 for each GPU
GPU config 2: Founders Edition GTX 1080
OS: Win 10 64bit
AMD Driver: 16.30-160525n-230356E
NV Driver: 368.19

In Game Settings for both configs: Crazy Settings | 1080P | 8x MSAA | VSYNC OFF

Ashes Game Version: v1.12.19928

Benchmark results:

2x Radeon RX 480 - 62.5 fps | Single Batch GPU Util: 51% | Med Batch GPU Util: 71.9 | Heavy Batch GPU Util: 92.3% GTX 1080 – 58.7 fps | Single Batch GPU Util: 98.7%| Med Batch GPU Util: 97.9% | Heavy Batch GPU Util: 98.7%

The elephant in the room:

Ashes uses procedural generation based on a randomized seed at launch. The benchmark does look slightly different every time it is run. But that, many have noted, does not fully explain the quality difference people noticed.

At present the GTX 1080 is incorrectly executing the terrain shaders responsible for populating the environment with the appropriate amount of snow. The GTX 1080 is doing less work to render AOTS than it otherwise would if the shader were being run properly. Snow is somewhat flat and boring in color compared to shiny rocks, which gives the illusion that less is being rendered, but this is an incorrect interpretation of how the terrain shaders are functioning in this title.

The content being rendered by the RX 480--the one with greater snow coverage in the side-by-side (the left in these images)--is the correct execution of the terrain shaders. http://imgur.com/a/pyC3r

So, even with fudgy image quality on the GTX 1080 that could improve their performance a few percent, dual RX 480 still came out ahead.

As a parting note, I will mention we ran this test 10x prior to going on-stage to confirm the performance delta was accurate. Moving up to 1440p at the same settings maintains the same performance delta within +/-1%.

https://www.reddit.com/r/Amd/comments/4m692q/concerning_the_a...

@yoshman @ratatosk @aleshi @kelthar

Scaling is 151% of a single card.

RX 480 verkar alltså prestera ca 70% av GTX 1080 i just det scenariot, men är mycket billigare. Låter som ett mycket intressant kort (förutom för Linuxanvändare om trenden med 200- och 300-serien fortsätter).

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem

Vore kul om någon kunde fixa någon "bugg" motsvarande den hos Pascal för att se hur mycket nVidia sparar på den mindre snön.

Permalänk
Medlem
Skrivet av ArcticFire:

Scaling is 151% of a single card.

RX 480 verkar alltså prestera ca 70% av GTX 1080 i just det scenariot, men är mycket billigare. Låter som ett mycket intressant kort (förutom för Linuxanvändare om trenden med 200- och 300-serien fortsätter).

Det kom en edit på den posten sen som kanske utvecklar detta ytterligare

Citat:

To clarify this, the scaling from 1->2 GPUs in the dual RX 480 test we assembled is 1.83x. The OP was looking only at the lowest draw call rates when asking about the 51%. The single batch GPU utilization is 51% (CPU-bound), medium is 71.9% utilization (less CPU-bound) and heavy batch utilization is 92.3% (not CPU-bound). All together for the entire test, there is 1.83X the performance of a single GPU in what users saw on YouTube. The mGPU subsystem of AOTS is very robust.

Permalänk
Avstängd

Ett klart prisvärt kort.

Jag kommer dock vänta till 490X innan jag bestämmer mig om det blir ett 1080 eller 490X.

Permalänk
Medlem

Bara jag som reagerade på att de är CPU-begränsade i DX12?

Permalänk
Medlem
Skrivet av Herr Kantarell:

5870 var ett otroligt bra kort på sin tid, men detta kort är ett mellanklasskort och som man faktiskt har råd med och kan skaffa ett till senare

Eller 3st. Eller 2 med vattenkylning. Tja, mitt 290 åkte på försäljning idag i varje fall. "Känns" som ett bra beslut...

Visa signatur

🖥️:Phanteks Enthoo Evolv X | Ryzen 7 7800X3D | Arctic Freezer II 420 | 6x Noctua NF-P14s Redux 1500 | Asus B650 ProArt Creator | 32Gb Corsair Vengeance 6000Mhz CL30| Samsung 990 Pro 2+1TB | ASUS TUF 3080 12Gb | Corsair RM1000x Shift | Acer XB27HU | Mionix Naos QG | CM Storm QuickFire TK MX Blue |

"Bättre bli motbevisad - än förklarad skyldig"

Permalänk

@skog1s: Ja det klart jag har en skärm som stödjer det, annars hade jag inte suttit med ett 3D kit
(jag har för övrigt en av NVIDIAS rekommenderade skärmar för extra bra resultat)

3D-känslan i spel som Trine 3 är helt otrolig, mycket bättre än vad man får på bio eftersom man kan "cranka" upp inställningarna så högt att hjärnan nästan pajar. För en tusenlapp är det en rolig gimmick att visa polarna och att lira med i väntan på Vive.

Att se season 6 av GoT i 3D är inte heller helt fel

Visa signatur

GPU: Gtx 680, CPU: i-5 3570k, RAM: Corsair Vengance 2x8GB, MB: Asrock Z77 Extreme4, SSD: Samsung 250GB, HDD: 2 TB 7200rpm, PSU: Integra R2 750W, Chassi: Fractal Design R4.

Permalänk
Medlem
Skrivet av Hucke:

Det kom en edit på den posten sen som kanske utvecklar detta ytterligare

Det var ju tråkigt.
Fortfarande prisvärt, men inte i närheten av lika imponerande då =(
Hoppas det finns ett RX 480X som kostar 299 USD och presterar nära 980 Ti.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?