DirectX 12 med Ashes of the Singularity

Permalänk
Moderator
Testpilot
Skrivet av anon5930:

Jo, Nvidia-titel men vad jag vet inte en gameworkstitel. DX11 dessutom. Spelet går riktigt bra på mitt 290 och inte stött på några märkbara buggar. Funderat lite om AMD tjänat på att PS4 och Xbox One är AMD och dessutom GCN baserade.

Radeondrivarna är inte ens optimerade för spelet vilket bör ge ännu bättre prestanda. Vi lär väl se uppdaterade drivare inom några dagar, först igår som AMD lär ha fått tillgång till spelet.

Skickades från m.sweclockers.com

Så är det alldeles säkert. Tror AMD gjorde ett smart drag när dom satte sina GPU:er i både PS4 och Xbone. Å andra sidan så återstår det att se om Nvidia verkligen har bra drivrutiner för Primal. Med tanke på hur det ser ut i Far Cry 4 och skillnaderna mellan Primal och Far Cry 4 så tror jag att Nvidia helt enkelt har rätt kassa drivers för tillfället.

EDIT: Kollad på GameGPU och dom får helt andra resultat. Publicerades igår.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - LG 45GR95QE 45" UltraWide OLED 3440x1440p@240Hz - kalaset vattenkylt

Permalänk
Hjälpsam
Skrivet av Yoshman:

Varför inte lägga ut €25 bara för att få köra lite benchmarks

5775C + 970 (båda oklockade då det är ett mini-ITX-system) gillar definitivt DX11 bättre än DX12 i denna titel. Och håller med det du skrev om "Crazy" kontra "High", är totalt sett väldigt liten visuell skillnad och skulle också säga att "High" är att föredra då "Crazy" blir plottrigt.

DX11

DX12

Om du får tid över, vore det kul att se hur din iGPU presterar.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Datavetare

@Ratatosk: Verkar dock som man måste plocka ur dGPU för att få någon bild på iGPU utgången, en manöver som är allt annat än trivialt i mitt trånga mini-ITX chassi. Lär nog göra det testet ändå vid tillfälle, men får se när det blir tid till sådant...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Dinoman:

Så är det alldeles säkert. Tror AMD gjorde ett smart drag när dom satte sina GPU:er i både PS4 och Xbone. Å andra sidan så återstår det att se om Nvidia verkligen har bra drivrutiner för Primal. Med tanke på hur det ser ut i Far Cry 4 och skillnaderna mellan Primal och Far Cry 4 så tror jag att Nvidia helt enkelt har rätt kassa drivers för tillfället.

EDIT: Kollad på GameGPU och dom får helt andra resultat. Publicerades igår.

http://gamegpu.com/images/stories/Test_GPU/Action/Far_Cry_Primal/test/FCPrimal_1920_1.jpg

Hm, intressant. Resultaten skiljer sig något där. Nyare Nvidia-drivare kanske?

Än lär det ske förändringar hos vardera tillverkare antar jag. Såg själv en skaplig prestandaökning med nya Crimson-drivaren med. Innan låg jag runt 50 FPS och nu går jag inte under 60FPS ens.

Permalänk
Medlem

@Ratatosk: Jag kör med ett GTX 980ti
Kanske det problemet, nVidia har mindre support för spelet..

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Hjälpsam
Skrivet av Yoshman:

@Ratatosk: Verkar dock som man måste plocka ur dGPU för att få någon bild på iGPU utgången, en manöver som är allt annat än trivialt i mitt trånga mini-ITX chassi. Lär nog göra det testet ändå vid tillfälle, men får se när det blir tid till sådant...

Nej det låter som lite väl mycket besvär.
Det är inte så att din iGPU har inaktiverats automatiskt i UEFI, när du satte in ett externt kort, så var det för mig?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Hjälpsam
Skrivet av darrenj:

@Ratatosk: Jag kör med ett GTX 980ti
Kanske det problemet, nVidia har mindre support för spelet..

Borde fungera också för GTX980Ti, hur mycket internminne har du, spelet verkar suga i sig en hel del.
Det är ju iofs fortfarande Beta.

edit Känt fel.
"Game sometimes displays tinted pink or purple (suspected driver issue, still investigating)"
http://steamcommunity.com/app/228880/discussions/1/4968798658...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Datavetare

Tester med Iris Pro 6200

Ashes of the Singularity DX11 low

Dold text

Ashes of the Singularity DX11 normal

Dold text

Steam VR (not) Ready

Dold text

Med tanke på att Iris Pro 6200 är den snabbaste iGPU som finns tycker jag detta rätt mycket demonstrerar hur meningslös "snabb" iGPU är, det går ju ändå inte att spela ens på "low"...

DX12 gick aldrig att köra klart, men tvivlar på att det skulle bli bättre då Mantle på AMDs APUer inte ändrade något jämfört med DX11.

Samma sak med DX12 multiadapter Iris Pro 6200 + 970, det startar men kraschar rätt snabbt. Skulle vara kul att se resultatet, flöt på rätt bra innan det kraschade

Edit: @Ratatosk man behöver inte ta ut dGPU, båda GPUerna är tydligen aktiva (man ser båda i enhetshanteraren), däremot är det bara en GPU som initierar monitorgränssnittet och vilken det ska vara går att ställa in från BIOS-menyn.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Ratatosk: 16gig ram
Det fungera bra som spel
Det är benchmarken på DX12 som blir rosa..

liten gran så här

https://steamcommunity.com/app/228880/discussions/1/496880503...

https://www.facebook.com/photo.php?fbid=923066641120015&set=a...

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Hjälpsam
Skrivet av darrenj:

Oj! jäklar vad rosa.
Eftersom det är ett känt problem borde det fixas inom de närmsta veckorna, antingen via drivrutiner till kortet, eller via en patch till spelet.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem

@Ratatosk: testat nyss igen, även kör som admin, rosa överallt: spel och benchmark!
jinx!

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Hjälpsam
Skrivet av darrenj:

@Ratatosk: testat nyss igen, även kör som admin, rosa överallt: spel och benchmark!
jinx!

Men du skrev ju tidigare att du kunde spela utan Rosa.
Var det någ speciell inställning?
Kanske du kan testa med andra drivare?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Moderator
Testpilot
Skrivet av anon5930:

Hm, intressant. Resultaten skiljer sig något där. Nyare Nvidia-drivare kanske?

Än lär det ske förändringar hos vardera tillverkare antar jag. Såg själv en skaplig prestandaökning med nya Crimson-drivaren med. Innan låg jag runt 50 FPS och nu går jag inte under 60FPS ens.

Jag tror att så länge vi sitter på Dx11 så har drivrutinerna stor betydelse. Det är ju väldigt lite som tyder på att det ska vara några större prestandaskillnaderna mellan Far Cry 4 och Primal. Så AMD skulle var helt dominant i Primal men inte i Far Cry 4 är inte logiskt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - LG 45GR95QE 45" UltraWide OLED 3440x1440p@240Hz - kalaset vattenkylt

Permalänk
Medlem

@Ratatosk: Jag vet jag vet,,,
Blev otur. Testa med olika inställning senare idag. Ska även installera senaste nVidia driver 362.00 som igår och köra
Men spelet är snygg och lovande kanske förboka..

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Medlem

@Ratatosk

Snabb test igen allt på high inställning benchmark
Senaste driver från nVidia

snabb video from iphonen, no pink
https://youtu.be/QsWGzVY5-lc
Kör jag på CRAZY inställning får jag rosa
benchmark resultaten
http://pin.it/zAjfaK9

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Hjälpsam

Nu är spelet inte längre Beta.

Ett test av HardOCP.
http://www.hardocp.com/article/2016/04/01/ashes_singularity_d...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av Orici:

När DX12 börjar användas på riktigt så är Pascal ute och då blir allt bra igen.

Sista åren så har jag försökt förklara för dig och andra nvidia-anhängare hur industrin fungerar med API'er, GPU'ers konstruktion och nvidia's monopolism och gimpade GPU'er. VULKAN-patchen kom nu till nya Doom, ännu ett exempel som visar hur "bra" nvidia är när det kommer till close-to-the-metal API'er (DX12/Vulkan/Mantle):

Kepler - "Jo nvidia stödjer GPU-compute skitbra"
Maxwell - "Jo nu har dom fixat det (tror ja) *not*"
Pascal - Historien upprepar sig...

Vänta bara tills ALLA spel utvecklas efter DX12/Vulkan... AMD har vart redo sedan 2011 för det och samtidigt försöker fightas med ett företag som du frenetiskt stöttar som stänger ute andra aktörer i DX11 miljö via Gameworks/andra optimeringar. Seså spring och köp ett Pascal nu och skriv ännu mer skit om AMD som du gjort i alla år.

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av 2good4you:

Sista åren så har jag försökt förklara för dig och andra nvidia-anhängare hur industrin fungerar med API'er, GPU'ers konstruktion och nvidia's monopolism och gimpade GPU'er. VULKAN-patchen kom nu till nya Doom, ännu ett exempel som visar hur "bra" nvidia är när det kommer till close-to-the-metal API'er (DX12/Vulkan/Mantle):

http://www.guru3d.com/index.php?ct=news&action=file&id=15697

Kepler - "Jo nvidia stödjer GPU-compute skitbra"
Maxwell - "Jo nu har dom fixat det (tror ja) *not*"
Pascal - Historien upprepar sig...

Vänta bara tills ALLA spel utvecklas efter DX12/Vulkan... AMD har vart redo sedan 2011 för det och samtidigt försöker fightas med ett företag som du frenetiskt stöttar som stänger ute andra aktörer i DX11 miljö via Gameworks/andra optimeringar. Seså spring och köp ett Pascal nu och skriv ännu mer skit om AMD som du gjort i alla år.

Du verkar tror att nVIDIA inte klarar av DX12 men så är inte fallet.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem

Jag tror inget, utan jag har vetat hela tiden vad jag diskuterat och förklarat varför, varenda gång. Du länkar till 2 benchmarks som inte säger nått utav det relevanta alls här. Din post var ingen jämförelse över hur korten beter sig från DX11 till DX12 API, dvs prestandaskillnaden och vilka funktioner som används av API'n. DX12 och Vulkan/Mantle innehåller massor av olika funktioner. Asynkrona beräkningar är det stora genombrottet och det är inte ens aktiverat på samtliga nvidia kort, något som nvidia sagt länge nu att dom skulle "aktivera" genom "kommande drivrutiner"... Vad hände? Lite svårt att försöka "aktivera" något som inte hårdvaran är kapabel till. Dom gick också ut med att Fermi skulle få WDDM 2.0 stöd. Vad hände? Skandal efter skandal så vattnar dom ur kunder som dig på pengar genom överpriser på GTX 1070/1080 korten, något som fick Nordichardware att skriva en krönika om det och beteendet/agendan bakom monopolismen.

Edit: Måste vara kul för dom som la 10000kr på ett GTX Titan att få pisk utav ett Radeon 285 2GB i spelet du länkade...

Om nu Pascal fungerar, eller fungerar bättre med asynkrona beräkningar så är det jättebra, men det får knappast folk/konsumenter som är medvetna om historien att glömma vad nvidia som företag har för agenda bakom allt.

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Datavetare
Skrivet av 2good4you:

Jag tror inget, utan jag har vetat hela tiden vad jag diskuterat och förklarat varför, varenda gång. Du länkar till 2 benchmarks som inte säger nått utav det relevanta alls här. Din post var ingen jämförelse över hur korten beter sig från DX11 till DX12 API, dvs prestandaskillnaden och vilka funktioner som används av API'n. DX12 och Vulkan/Mantle innehåller massor av olika funktioner. Asynkrona beräkningar är det stora genombrottet och det är inte ens aktiverat på samtliga nvidia kort, något som nvidia sagt länge nu att dom skulle "aktivera" genom "kommande drivrutiner"... Vad hände? Lite svårt att försöka "aktivera" något som inte hårdvaran är kapabel till. Dom gick också ut med att Fermi skulle få WDDM 2.0 stöd. Vad hände? Skandal efter skandal så vattnar dom ur kunder som dig på pengar genom överpriser på GTX 1070/1080 korten, något som fick Nordichardware att skriva en krönika om det och beteendet/agendan bakom monopolismen.

Edit: Måste vara kul för dom som la 10000kr på ett GTX Titan att få pisk utav ett Radeon 285 2GB i spelet du länkade...

Om nu Pascal fungerar, eller fungerar bättre med asynkrona beräkningar så är det jättebra, men det får knappast folk/konsumenter som är medvetna om historien att glömma vad nvidia som företag har för agenda bakom allt.

För DX12 är asynkrona beräkningar* aktiverade för både Maxwell och Pascal. Däremot är det extremt osannolikt att vi kommer få se något spel där asynkrona beräkningar ger en relevant vinst på Maxwell.

Om allt däremot är extremt tillrättalagt för att absolut maximera effekten av "async compute" så ser till och med Maxwell en viss vinst, rent teoretiskt borde även Kepler se ungefär samma "boost" då "async compute" är implementerat i HW på exakt samma sätt som i Maxwell där (statiskt uppdelning av SMs).

Som man kan se här fungerar det betydligt bättre på Pascal som har dynamisk uppdelning av SMs.

* Irriterar mig något enormt på AMDs PR-avdelning här. Rent generellt har till och med programmerare svårt att hålla isär begreppen "parallell", "asynkron" och "samtida" (eng. concurrent). Microsoft hade ett tag en avdelning på channel 9 där man förklarade "async" i .NET och visade vanliga fel folk gjorde (asynkron blandades ofta ihop med samtida exekvering) och hur de bör undvikas.

Precis som Intel kallar sin implementation av SMT för "Hyperthreading", vilket inte alls är förvirrande då man inte blandar ihop tekniken med namnet på en specifik implementation, så kallar AMD sin specifika implementation av att hanterar parallell exekvering av asynkrona jobb (deras ACE) för "async compute". Hela poängen med ACE är just att det är parallellt, men huruvida saker körs parallellt och huruvida de är asynkrona är väldigt skilda ting.

För öka förvirringen än mer innehåller DX12 specifikationen just termen "async compute", då i sin tekniskt korrekta mening. Intels iGPU i Haswell fram till Skylake stödjer alla "async compute" som DX12 specificerar det, men ingen av dessa kan köra två asynkrona jobb parallellt.

Kanske bara jag som stör mig på det totala misshandladet av termen "async compute" i forum och av AMDs PR, men undrar hur många som inte håller på med grafik eller som jag programmering/optimering av program för multicore-system som ens är medveten om ovan.

/ irriterad nörd

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman:

Jag håller med om det du skriver. Gick dock inte speciellt djupt på ämnet då asynkrona beräkningar i praktiken är helt värdelöst på nvidia kort jämfört med AMD's GCN kort (observera att jag mest syftar på Kepler/Maxwell som folk spenderat massa pengar på och som troligtvis kommer underprestera fatalt som alla andra nvidia-kort efter ett tag). Vi hade också den diskussionen när Kepler va aktuell och hur Maxwell skulle "förändra" allt.

Pascal må vara en stor förbättring på området, men jag är fortfarande kritisk till vad för beräkningar den är kapabel till i förhållande mot GCN och vill inte göra en bedömning utav det från 3DMark då det trots allt är ett syntetiskt test. Får se om ja orkar titta på lite data på Pascal-arkitekturen. Folk tycker jag har vart för spekulativ/teoretisk när jag skrivit om API'er/arkitektoniska skillnader tills nu när man ser mer och mer vad man dolt under så lång tid.

Sen är asynkrona beräkningar en del av allt, visst. Inte minst så är parallellismen utmärkt på CPU sidan i DX12/Vulkan mot tidigare, och mycket mindre overhead vilket gynnar (ska gynna) både AMD och nvidia. Desto större skandal att se hur nvidia-kort fortfarande underpresterar i en del/dom flesta DX12/Vulkan scenarion. Ska man skylla på drivrutiner hos nvidia nu? Knappast... och speciellt inte när AMD har drivers klara redan inledningsvis.

Edit: Såg just att Fury korten fick 40% boost i nya Doom av Vulkan.

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Hjälpsam

Jag finner det roande att man plötsligt tar fram Pascal som exempel på om Nvidia är bra på DX12, nu sopas Maxwell under mattan.
Oricis exempel ovan är intressanta, notera att R9 290x spöar GTX980Ti i Hitman.
Att Pascal är bättre än Maxwell i DX12 är nog en ganska klen tröst, för de som köpt Maxwell under senaste året.

Raise of Tomb Raider har nyss uppdaterats, stora vinster för AMD i DX12, Maxwell går bättre i DX11 än vad det går i DX12.

Skrivet av OC3D:

To summarise this testing this new update for the DirectX 12 version of Rise of the Tomb Raider actually makes DirectX 12 worth using if you own an AMD GPU, with Nvidia users (at least those with maxwell or older GPUs) being better off using the DirectX 11 version of the game for the best performance.

http://www.overclock3d.net/reviews/gpu_displays/rise_of_the_t...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Datavetare
Skrivet av 2good4you:

@Yoshman:

Jag håller med om det du skriver. Gick dock inte speciellt djupt på ämnet då asynkrona beräkningar i praktiken är helt värdelöst på nvidia kort jämfört med AMD's GCN kort (observera att jag mest syftar på Kepler/Maxwell som folk spenderat massa pengar på och som troligtvis kommer underprestera fatalt som alla andra nvidia-kort efter ett tag). Vi hade också den diskussionen när Kepler va aktuell och hur Maxwell skulle "förändra" allt.

Pascal må vara en stor förbättring på området, men jag är fortfarande kritisk till vad för beräkningar den är kapabel till i förhållande mot GCN och vill inte göra en bedömning utav det från 3DMark då det trots allt är ett syntetiskt test. Får se om ja orkar titta på lite data på Pascal-arkitekturen. Folk tycker jag har vart för spekulativ/teoretisk när jag skrivit om API'er/arkitektoniska skillnader tills nu när man ser mer och mer vad man dolt under så lång tid.

Sen är asynkrona beräkningar en del av allt, visst. Inte minst så är parallellismen utmärkt på CPU sidan i DX12/Vulkan mot tidigare, och mycket mindre overhead vilket gynnar (ska gynna) både AMD och nvidia. Desto större skandal att se hur nvidia-kort fortfarande underpresterar i en del/dom flesta DX12/Vulkan scenarion. Ska man skylla på drivrutiner hos nvidia nu? Knappast... och speciellt inte när AMD har drivers klara redan inledningsvis.

Edit: Såg just att Fury korten fick 40% boost i nya Doom av Vulkan.

Hur definierar du ordet "underpresterar"? Ser överhuvudtaget inte hur flera i dessa forum drar slutsatsen att Maxwell underpresterar eller ens har några problem alls med DX12.

390 och 970 har under senaste året varit två populära modeller som är direkta konkurrenter, jämför man kapaciteten hos dessa ser man att

  • 390 består av 20 % fler transistorer

  • 390 drar ungefär ungefär 150 W mer än "fabriksöverklockade" 970, nästan dubbelt så mycket

  • 390 har 47 % högre shader-kapacitet

  • 390 har 71 % högre VRAM bandbredd

  • 390 har 12 % högre ROP kapacitet

ändå presterar dessa två likvärdigt i DX11 medan det är 10-20 % fördel för 390 i DX12.

Hur kan man från detta på något rimligt och i alla fall i närheten objektivt sätt dra slutsatsen att det är Maxwell som underpresterar i DX12?

Precis som de flesta gissade så får AMD en större relativ boost av DX12/Vulkan jämfört med framförallt Maxwell och Kepler, men även i DX12 så är fortfarande Maxwell en långt mer effektiv* krets än någon GCN-version. Tror ingen här skulle försöka hävda att Polaris 10 är sämre i DX12 jämfört med GCN1.1 (390/390X), men då Polaris 10 är en mer effektiv krets som bättre kan utnyttja sin kapacitet även i DX11 så får den en lite mindre boost av att gå till DX12. Polaris 10 får av samma anledning också lite mindre boost av "async compute" jämfört med 390/390X, men det är inte något dåligt utan tvärt om en effekt av att 480 är bättre på att utnyttja sin kapacitet än 390/390X även i ogynnsamma lägen!

Att GCN ser en stor boost från DX12/Vulkan är absolut positivt, men det är väldigt mycket ett resultat av utgångspunkten, nämligen väldigt låg effektivitet i DX11.

* enda rimliga definitionen på en krets effektivitet är kvoten mellan faktiskt prestanda i spel dividerat med kretsens kapacitet.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Yoshman:

Hur definierar du ordet "underpresterar"? Ser överhuvudtaget inte hur flera i dessa forum drar slutsatsen att Maxwell underpresterar eller ens har några problem alls med DX12.

390 och 970 har under senaste året varit två populära modeller som är direkta konkurrenter, jämför man kapaciteten hos dessa ser man att

  • 390 består av 20 % fler transistorer

  • 390 drar ungefär ungefär 150 W mer än "fabriksöverklockade" 970, nästan dubbelt så mycket

  • 390 har 47 % högre shader-kapacitet

  • 390 har 71 % högre VRAM bandbredd

  • 390 har 12 % högre ROP kapacitet

ändå presterar dessa två likvärdigt i DX11 medan det är 10-20 % fördel för 390 i DX12.

Hur kan man från detta på något rimligt och i alla fall i närheten objektivt sätt dra slutsatsen att det är Maxwell som underpresterar i DX12?

Precis som de flesta gissade så får AMD en större relativ boost av DX12/Vulkan jämfört med framförallt Maxwell och Kepler, men även i DX12 så är fortfarande Maxwell en långt mer effektiv* krets än någon GCN-version. Tror ingen här skulle försöka hävda att Polaris 10 är sämre i DX12 jämfört med GCN1.1 (390/390X), men då Polaris 10 är en mer effektiv krets som bättre kan utnyttja sin kapacitet även i DX11 så får den en lite mindre boost av att gå till DX12. Polaris 10 får av samma anledning också lite mindre boost av "async compute" jämfört med 390/390X, men det är inte något dåligt utan tvärt om en effekt av att 480 är bättre på att utnyttja sin kapacitet än 390/390X även i ogynnsamma lägen!

Att GCN ser en stor boost från DX12/Vulkan är absolut positivt, men det är väldigt mycket ett resultat av utgångspunkten, nämligen väldigt låg effektivitet i DX11.

* enda rimliga definitionen på en krets effektivitet är kvoten mellan faktiskt prestanda i spel dividerat med kretsens kapacitet.

Jag tror att vi, när DX12 mognat, kommer att få prestanda, i många titlar, som ganska väl överensstämmer med dina teoretiska beräkningar, alltså ca 50% bättre prestanda för R9 390 gentemot GTX970.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Datavetare
Skrivet av Ratatosk:

Jag tror att vi, när DX12 mognat, kommer att få prestanda, i många titlar, som ganska väl överensstämmer med dina teoretiska beräkningar, alltså ca 50% bättre prestanda för R9 390 gentemot GTX970.

Gör ett bokmärke hit och låt oss kolla om säg två år

Jag är övertygad om att 3D Mark Time Spy är en rätt bra övre gräns för vad vi kan förvänta oss av denna generations grafikkort vad det gäller effekt av DX12 och finesser som "async compute". Läser man vad testet gör så har man försökt gjort ett "best case scenario" för framförallt "async compute" och i en syntetisk benchmark är andra faktorer som cache-påverkan typiskt minimala medan dessa drar ner effekten lite i verkliga spel.

Med tanke på att jag har ~15 års erfarenhet av att hårdoptimera kod för prestandakritiska system och nästan 10 års erfarenhet av att specifikt optimera för multicore system skulle det svida rejält i nördsjälen att ha totalt fel här, så för mig är insatsen hög

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Hur definierar du ordet "underpresterar"? Ser överhuvudtaget inte hur flera i dessa forum drar slutsatsen att Maxwell underpresterar eller ens har några problem alls med DX12.

390 och 970 har under senaste året varit två populära modeller som är direkta konkurrenter, jämför man kapaciteten hos dessa ser man att

  • 390 består av 20 % fler transistorer

  • 390 drar ungefär ungefär 150 W mer än "fabriksöverklockade" 970, nästan dubbelt så mycket

  • 390 har 47 % högre shader-kapacitet

  • 390 har 71 % högre VRAM bandbredd

  • 390 har 12 % högre ROP kapacitet

ändå presterar dessa två likvärdigt i DX11 medan det är 10-20 % fördel för 390 i DX12.

Hur kan man från detta på något rimligt och i alla fall i närheten objektivt sätt dra slutsatsen att det är Maxwell som underpresterar i DX12?

Precis som de flesta gissade så får AMD en större relativ boost av DX12/Vulkan jämfört med framförallt Maxwell och Kepler, men även i DX12 så är fortfarande Maxwell en långt mer effektiv* krets än någon GCN-version. Tror ingen här skulle försöka hävda att Polaris 10 är sämre i DX12 jämfört med GCN1.1 (390/390X), men då Polaris 10 är en mer effektiv krets som bättre kan utnyttja sin kapacitet även i DX11 så får den en lite mindre boost av att gå till DX12. Polaris 10 får av samma anledning också lite mindre boost av "async compute" jämfört med 390/390X, men det är inte något dåligt utan tvärt om en effekt av att 480 är bättre på att utnyttja sin kapacitet än 390/390X även i ogynnsamma lägen!

Att GCN ser en stor boost från DX12/Vulkan är absolut positivt, men det är väldigt mycket ett resultat av utgångspunkten, nämligen väldigt låg effektivitet i DX11.

* enda rimliga definitionen på en krets effektivitet är kvoten mellan faktiskt prestanda i spel dividerat med kretsens kapacitet.

Det har vart ett ganska stort samtalsämne just att äldre AMD-kort (speciellt GCN-baserade kort) presterar extremt bra mot sina motsvarigheter från nvidia. Se hur fatalt efter Fermi och Kepler har hamnat efter AMD's motsvarigheter i stort sett varenda test. Som exempel, snubbla över ett test och såg hur ett Radeon 285 2GB utpresterade ett GTX Titan/780Ti i Hitman DX12.

Precis samma sak som folk aldrig kunde trott att 79xx serien skulle totalt mosa 680, och där 290/390 serien inte bara körde över 780 serien utan började fightas med nästa gen i form av 970/980.

Maxwell är utav en senare generation men ja, jämför man kortens beräkningskapacitet som du gjorde så är Radeon-korten mycket kraftfullare, men det är just det som är poängen här, hur används korten? Värdelöst... Man har i princip tvingats att koda sina drivrutiner efter nvidia's egna TWIMTBP/gameworks initiativ i många titlar där det ska bestämmas hur alla renderingspass i spel ska ske, ofta där t.ex rendering av alla skuggor ska renderas genom rasterenheterna på GPU'n och många andra pass som ska använda sig av GPUn's geometrienheter. Så fort det dyker upp ett spel som AMD kan presterar vansinnigt bra i så kommer kommentarer som "AMD optimerat skitspel när det i själva verket råkar vara en av många titlar som inte är hård cripplad på AMD-GPU'er. Jag sökte runt lite ang detta och ID's svar ang detta jag diskterar är klockrent:

@Orici :

" - When looking at GPU performance, something that becomes quite obvious right away is that some rendering passes barely use compute units. Shadow map rendering, as an example, is typically bottlenecked by fixed pipeline processing (eg rasterisation) and memory bandwidth rather than raw compute performance. This means that when rendering your shadow maps, if nothing is running in parallel, you're effectively wasting a lot of GPU processing power.

"Even geometry passes with more intensive shading computations will potentially not be able to consistently max out the compute units for numerous reasons related to the internal graphics pipeline. Whenever this occurs, async compute shaders can leverage those unused compute units for other tasks. This is the approach we took with Doom. Our post-processing and tone-mapping, for instance, run in parallel with a significant part of the graphics work. This is a good example of a situation where just scheduling your work differently across the graphics and compute queues can result in multi-ms gains.

The time is now, really. Doom is already a clear example where async compute, when used properly, can make drastic enhancements to the performance and look of a game," reckons Billy Khan. "Going forward, compute and async compute will be even more extensively used for idTech6. It is almost certain that more developers will take advantage of compute and async compute as they discover how to effectively use it in their games."

http://www.eurogamer.net/articles/digitalfoundry-2016-doom-vu...

Det är bara början och det finns ännu mer att ge via drivrutiner, även om nu ansvaret och kompetensen nu ligger i mycket större grad hos utvecklarna och inte från aktörernas drivrutinsavdelningar.

Det finns DX12 titlar som körs på AMD just nu med bara en massiv boost av async compute med med fortsatt overhead på CPU där man ser för låg/ojämn CPU användning, så det kommer bli desto bättre. nvidia får sin (lilla) boost i DX12/Vulkan just av minskad overhead, och troligtvis inte av async compute. Återstår att se hur Pascal kommer hantera det.

Just effektiviteten du var inne på kommer att öka enormt, och det är ganska väntat när man vet spelet som pågått bakom gallerierna, något jag är säker på att du också känner till mer än väl.

EDIT: Skrivfel korrigerat.

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av 2good4you:

Det har vart ett ganska stort samtalsämne just att äldre AMD-kort (speciellt GCN-baserade kort) presterar extremt bra mot sina motsvarigheter från nvidia. Se hur fatalt efter Fermi och Kepler har hamnat efter AMD's motsvarigheter i stort sett varenda test. Som exempel, snubbla över ett test och såg hur ett Radeon 285 2GB utpresterade ett GTX Titan/980Ti i Hitman DX12.

Precis samma sak som folk aldrig kunde trott att 79xx serien skulle totalt mosa 680, och där 290/390 serien inte bara körde över 780 serien utan började fightas med nästa gen i form av 970/980.

Det är bara början och det finns ännu mer att ge via drivrutiner, även om nu ansvaret och kompetensen nu ligger i mycket större grad hos utvecklarna och inte från aktörernas drivrutinsavdelningar.

Har du något bevis för det? I dom tester jag länkade till så får 285 stor spö av 980 ti.

Precis och därför se vi ofärdiga eller halv-klara spel med DX12. Hittills har inte DX12 imponerat speciellt mycket.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Skrivet av Ratatosk:

Jag tror att vi, när DX12 mognat, kommer att få prestanda, i många titlar, som ganska väl överensstämmer med dina teoretiska beräkningar, alltså ca 50% bättre prestanda för R9 390 gentemot GTX970.

Som jag försökte skriva lite lågmält till @Yoshman så kom Maxwell ett helt år efter Hawaii XT (290 serien) så det är egentligen ingen vettig jämförelse att göra prestandamässigt i förhållande till hur den arkitektoniska designen och energieffektiviteten är. En sak är säker, 290 och 390 korten är långt mycket mer kompetenta än 970/980 korten vilket jag skrivit hela tiden att vi bara sett början på (390X presterar redan över 980Ti/Titan X i Doom med Vulkan patchen).

Skrivet av Orici:

Har du något bevis för det? I dom tester jag länkade till så får 285 stor spö av 980 ti.

Vad hände med att svara på resten av diskussionen? Tog luften slut? Men så fort du får chansen att vara pessemistisk så hugger du tag direkt, som här:

Jag skrev fel med en siffra på den posten, det skulle stå GTX Titan/780ti och inte 980ti, varav därför jag inte skrev GTX Titan X. Sorligt att se hur "Big Kepler" halkat FATALT efter. Det var inledningsvis 680 och sen 780 som skulle konkurrera mot dessa kort... Vad hände? Skrattretande och synd för dom som köpte korten med tanke på hur dyra dom var. Minns tom hur du försvara hur mycket snabbare och bättre dessa kort var i diverse poster, då som jag skrev lite om det som jag skriver om nu.

Citat:

Precis och därför se vi ofärdiga eller halv-klara spel med DX12. Hittills har inte DX12 imponerat speciellt mycket.

CTTM API'er är en gamechanger för hela spelindustrin!? Nej för allt som gynnar AMD (eller en ev tredje aktör) som vill och försöker vara en aktör med öppna standarder och köra fair-fight tycker du suger, för att det är nvidia som kommer tappa enormt på detta. Men du, raketforskarn... låt folk bookmarka den där meningen du skrev ovan, och passa på att skicka den till samtliga spelutveklare, speciellt ID-Software som precis gjorde ett uttalande om detta (som jag citerade i posten innan), och sprid det gärna på sociala medier också så folk får ett leende innan dom lägger sig, eller på kanske allvar undra varför du bemödar dig att diskutera saker överhuvud taget när du inte har kunskapen till det.

EDIT: när du ändå snackar om 980Ti. RX480 är på samma nivå som 980TI i Doom nu med "bara en patch"... Samtidigt är Fury X uppe på GTX1080 prestanda:

https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-am...
https://www.techpowerup.com/224095/doom-with-vulkan-renderer-...

RX480 31% snabbare än GTX970... allt i nvidia's favoritupplösning 1080p där CPU-overhead vart deras starka sida.

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Hjälpsam
Skrivet av Yoshman:

Gör ett bokmärke hit och låt oss kolla om säg två år

Jag är övertygad om att 3D Mark Time Spy är en rätt bra övre gräns för vad vi kan förvänta oss av denna generations grafikkort vad det gäller effekt av DX12 och finesser som "async compute". Läser man vad testet gör så har man försökt gjort ett "best case scenario" för framförallt "async compute" och i en syntetisk benchmark är andra faktorer som cache-påverkan typiskt minimala medan dessa drar ner effekten lite i verkliga spel.

Med tanke på att jag har ~15 års erfarenhet av att hårdoptimera kod för prestandakritiska system och nästan 10 års erfarenhet av att specifikt optimera för multicore system skulle det svida rejält i nördsjälen att ha totalt fel här, så för mig är insatsen hög

Jag tänker inte äta upp min keps om jag har fel.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Datavetare
Skrivet av Enigma:

Som jag försökte skriva lite lågmält till @Yoshman så kom Maxwell ett helt år efter Hawaii XT (290 serien) så det är egentligen ingen vettig jämförelse att göra prestandamässigt i förhållande till hur den arkitektoniska designen och energieffektiviteten är. En sak är säker, 290 och 390 korten är långt mycket mer kompetenta än 970/980 korten vilket jag skrivit hela tiden att vi bara sett början på (390X presterar redan över 980Ti/Titan X i Doom med Vulkan patchen).

Vad hände med att svara på resten av diskussionen? Tog luften slut? Men så fort du får chansen att vara pessemistisk så hugger du tag direkt, som här:

Jag skrev fel med en siffra på den posten, det skulle stå GTX Titan/780ti och inte 980ti, varav därför jag inte skrev GTX Titan X. Sorligt att se hur "Big Kepler" halkat FATALT efter. Det var inledningsvis 680 och sen 780 som skulle konkurrera mot dessa kort... Vad hände? Skrattretande och synd för dom som köpte korten med tanke på hur dyra dom var. Minns tom hur du försvara hur mycket snabbare och bättre dessa kort var i diverse poster, då som jag skrev lite om det som jag skriver om nu.

CTTM API'er är en gamechanger för hela spelindustrin!? Nej för allt som gynnar AMD (eller en ev tredje aktör) som vill och försöker vara en aktör med öppna standarder och köra fair-fight tycker du suger, för att det är nvidia som kommer tappa enormt på detta. Men du, raketforskarn... låt folk bookmarka den där meningen du skrev ovan, och passa på att skicka den till samtliga spelutveklare, speciellt ID-Software som precis gjorde ett uttalande om detta (som jag citerade i posten innan), och sprid det gärna på sociala medier också så folk får ett leende innan dom lägger sig, eller på kanske allvar undra varför du bemödar dig att diskutera saker överhuvud taget när du inte har kunskapen till det.

EDIT: när du ändå snackar om 980Ti. RX480 är på samma nivå som 980TI i Doom nu med "bara en patch"... Samtidigt är Fury X uppe på GTX1080 prestanda:

https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-am...
https://www.techpowerup.com/224095/doom-with-vulkan-renderer-...

RX480 31% snabbare än GTX970... allt i nvidia's favoritupplösning 1080p där CPU-overhead vart deras starka sida.

Är inte helt övertygad om att fördelen är så stor som man kan tro i DX12 för GCN. Kolla in detta test där man också testar 1 % och 0,1 % lägsta FPS. Visst får 480 och 390 högre genomsnittlig FPS, men 970 har med något enstaka undantag bättre 1 % rakt igenom (även när man kör DX12). Kör man ~60 FPS betyder det att 480/390 droppar lägre än 970 ungefär var annan sekund.

Framedrops har större påverkan på upplevelsen än vad lite lägre genomsnittlig FPS har.

Det sagt: Maxwell kommer aldrig kunna använda "async compute" till något vettigt i spel, så där finns en nackdel. Det jag hoppas t.ex. TechReport snart visar är hur användningen av "async compute" påverkar frame-times. Tittar man på CPUer så är SMT ett utmärkt sätt att hantera fler anrop per sekund, däremot så blir svarstiderna betydligt svårare att förutsäga när man använder SMT så ingen höjdare för realtidsappliationer (de flesta RTOS stänger därför av SMT).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer