AMD Radeon R9 390X fördubblar prestandan i DirectX 12

Permalänk
Medlem
Skrivet av nisse1:

Lite skumt är inte Ashes Ofthe Singularity utvecklad av AMD
Det står det på deras hemsida i alla fall.
http://www.ashesofthesingularity.com/

shhh det är en hemlighet

Permalänk

Tja har ju framkommit tidigare att amds drivers har just haft problem med draw calls i dx 11.

Få se när DX 12 väl kommer i ett spel, FPS spel kommer det troligen inte vara lika stor fördel. Men cpu tunga spel kommer det troligen göra en hel del.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Yoshman:

...Vidare har man kapat en del "flexibilitet" som fanns i DX11, något som möjliggör rejält mycket mer optimeringar på sina håll (detta är ett område där det ändå finns potential att krama ur extra prestanda via drivaren).

Utan att hävda att jag besitter djupa kunskaper så är jag heligt övertygat om att flexibilitet är av ondo
Titta bara på USB vs diskreta/dedikerad kort/ingånger, imho så är usb roten till allt ont just pga flexibiliteten.
Spelmotorer med multi plattform kapabilitet lider "stort" på pc, olika minneshanteringar landar på minsta gemena nämnare etc.
Lite som kompromisser, ingen blir helt nöjd.

Dock ser jag en riktig utmaning för spelbranches programmerare med DX12, det blir svårt för dom att låna in AMD/Nvidia för att optimera drivrutiner när koden i grunden är "bristfällig".

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem

Någon som märkt att i3:an spöar 8370 i dx12 (rätt mkt i en del tester)?

Permalänk
Medlem

Jag tror vi ska vara försiktiga att bedöma AMDs DX11-prestanda utifrån spel som stöder både DX11 och DX12/Vulkan/Mantle. AMD har ingen anledning att göra specifika optimeringar för spelet i DX11, mest rimligt att lägga resurserna på DX12 istället.

Tydligen så resonerar AMD och Nvidia annorlunda när de optimerar, AMD fokuserar mer på att hjälpa till att optimera spelens grafikmotor medan Nvidia fokuserar mer på effektivare drivrutiner

Permalänk
Medlem

Never settle.

Visa signatur

AMD Ryzen 1500X @ stock | Sapphire RX 580 Nitro+ 8GB | Asus ROG Strix B350-F Gaming | 2x8GB 3200MHz Corsair | EVGA Supernova G3 550W | Acer XF270HUA 1440P 144MHz Freesync

Permalänk
Medlem
Skrivet av strejf:

Kan det verkligen stämma att AMD är så fruktansvärt mycket sämre än nVIDIA på att göra drivrutiner för DX11? År 2015? Nä det luktar lite mysko om det här.

Bevisar onekligen hur bra prestanda Nvidia har i DX11. Kul för AMD!

Visa signatur

Louqe Ghost S1 + L TopHat | ASRock Phantom Gaming ITX | Intel Core i9-9900K | Corsair Vengeance LPX 32GB | Gigabyte GeForce RTX 2080 Ti 11GB | Corsair SF750 Platinum | Samsung 970 EVO Plus 500GB | Intel 660P 2TB | Custom Vattenkylning CPU/GPU | Windows 11 Pro x64

Permalänk
Medlem

Själva spelet verkar vara lovande. Kanske kan ersätta Forged Alliance Forever.
Trevligt att min 290X kanske kommer spöa ett 980 :).

Permalänk
Medlem

Om något så visar det här bara att AMD haft problem med CPU optimeringen i DX11, vilket jag läste något om för typ ett år sen. Det är en av anledningarna till att Nvidia presterat bättre i en del spel. Nvidia får därför inte den här stora boosten, för de hade redan mycket mindre CPU overhead än AMD.

Det är helt klart bättre att AMD's kort får visa sin sanna prestanda med DX12 dock så de kan tävla mer med Nvidia, det kommer öka konkurrensen och förhoppningsvis förbättra priser och prestanda snabbare för oss konsumenter.

Permalänk
Medlem

Om det här är en generell indikation på DX12, jag säger OM. Betyder det då att AMDs CPUer (som har många kärnor) och AMDs GPUer som har mångra stream processorer, kommer att spöa Intel och nvidia i allt som använder DX12?

Kommer ett 390X vara snabbare än 980Ti/Titan X ? kommer AMDs 8-9 serie FX spöa Skylake och Haswell-E ?

Visa signatur

__________________
Stationär: | NZXT H510 Flow | Corsair RM850x | GIGABYTE Z790 AORUS Elite AX | Intel Core i7 13700K | 32GB 6400Mhz CL32 DDR5 | MSI RTX 380 | 1TB Seagate FireCuda 530 + 1TB Kingston KC3000 | LG OLED 42C2 120Hz 4K | Bärbar: MacBook Pro 14"

NAS: Synology DS1815+ 8X 4TB WD RED
Server: Esxi 6.5 | i5 4690K | 32GB DDR3 | 1TB SSD + iSCSI SATA [/B]

Permalänk
Medlem

Mitt 680 hade mycket högre värden gentemot 290x kortet i 3dmarks future test. Men den drv vilken den nu var på 290x sp, kom strax innan jag bytte kom de ifatt en hel del. Även om de låg lågt efter. Har även noterat att jag med 980ti som ja kör med nu har mycket lägre singel och multicore värden då dx11 om jat har hyperv på i widows 8 och windows 10,utan att ha några vp aktiva, eller som in w10 fallet inte ens skapat någon.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Datavetare
Skrivet av AxF:

Om det här är en generell indikation på DX12, jag säger OM. Betyder det då att AMDs CPUer (som har många kärnor) och AMDs GPUer som har mångra stream processorer, kommer att spöa Intel och nvidia i allt som använder DX12?

Kommer ett 390X vara snabbare än 980Ti/Titan X ? kommer AMDs 8-9 serie FX spöa Skylake och Haswell-E ?

Finns ju mätningar på i7-5980X, i7-6700K, i3-4330, FX-6300 samt FX-8300.

Vad resultaten verkar skvallra om är att denna titel kan dra nytta av upp till 4 CPU-kärnor. Denna slutsats baserar jag dels på att 6700K är (marginellt) snabbare än 5980X, så ingen vinst med den senares 4 extra kärnor.

Man ser det också på resultatet mellan FX-6300 och FX-8300 där den förra är något långsammare. Det kanske kräver lite mer förklaring, då AMD kallar dessa för 6 resp 8-kärniga och det har väldigt snarlika klockfrekvenser. Vad Windows (och även Linux) kommer göra om man kör på en "modul-baserad" AMD processor är väldigt likt det som händer om CPUn har hyperthreads, OSet kommer först välja att lägga en OS-tråd per modul. Har man ett program som skalar perfekt med CPU-kärnor så kommer FX-6300 (om vi ignorerar turbo-core effekten) att skala helt linjärt upp till 3 trådar medan FX-8300 skalar linjärt till 4 trådar.

Efter det måste man börja använda den andra tråden i varje modul, två trådar i samma modul delar färre resurser än vad hypertrådar gör men de påverkar ändå varandra. Så effekten av att använda den andra tråden blir inte 100%, vad man sett i praktiken är att om en tråd utför 100 "unit of work" per tidsenhet så kommer den utföra ~80 när båda trådarna i en modul används (totalt ~160). Motsvarande för hypertheading brukar vara 100 -> ~60-65 så totalt 120-130 (poängen här är att summan i båda fallen är högre än vad man får i enkeltrådfallet, så en vinst i "throughput").

Det som kanske överraskar någon är att i3-4330 är 10-20% snabbare än FX-8300 (faktiskt större fördel för i3:an i det man kallar "heavy"). Detta är det sista som pekar på att just 4 CPU-trådar kan användas någorlunda effektiv i denna titel, en Haswell baserad i3 är snabbare än en FX-8300 om den senare inte använder mer än 4 kärnor. Notera också att i3 vinner mer på att gå till DX12 än vad FX-modellerna gör.

Om detta är en indikation på vad man komma skall så är det rejält positivt för AMDs GPUer, man kommer runt det faktum att man inte alls har lika effektiva drivare som Nvidia för DX11. I DX12 presterar GPUer relativt sett betydligt närmare vad man skulle förvänta sig givet deras teoretiska kapacitet.

Men om Nvidias DX12 resultat inte radikalt ökar betyder det tyvärr också att DX12 knappast blir någon revolution, även i ett spel med relativt mycket "draw-calls" så blir effekten att prestanda är ungefär vad Nvidia hade med sina optimerade DX11 drivare. Vi vet dock från 3D Mark "overhead" test att går man totalt crazy i antal draw-calls så ger DX12 en förbättring även för Nvidia.

Om detta stämmer så släcks det eventuella hopp som finns kvar om att AMDs moduldesign skulle vara vettig någonstans. Ser som sagt snarare ut som Intels ledning drygas ut då DX11 resultat för AMDs GPUer startar högre och skalar bättre till DX12 på Intels CPUer än vad är fallet på AMDs CPUer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Det är väl snarare "Radeon X390 har problem med prestanda i DX11" än att DX12 gör kortet dubbelt så snabbt?

Permalänk
Hjälpsam
Skrivet av Erik.dv:

Det är väl snarare "Radeon X390 har problem med prestanda i DX11" än att DX12 gör kortet dubbelt så snabbt?

Ja.
I detta spel skall kanske tilläggas, finns nog inget annat som kommer i närheten vad gäller antal Drawcalls.
I ett demo från 3DMark ser man också detta, även demot Starswarm har sjukt mycket drawcalls.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Var det inte snack om att kort från r9 290 serien? och uppåt hade "Asynchronous Shaders" vilket skulle ge en stor boost i DirectX12?

Permalänk
Medlem
Skrivet av Loltroll:

Var det inte snack om att kort från r9 290 serien? och uppåt hade "Asynchronous Shaders" vilket skulle ge en stor boost i DirectX12?

Det snacket är inget jag personligen hört men med största sannolikhet kommer R9 200 också att må bra av DX12 då R9 300 kör hawaii-kretsar.

Visa signatur

Intel i5 2500k @ 4.5 GHz
Sapphire Radeon R9 290 Tri-X
Nåt annat skit

Permalänk
Medlem
Skrivet av Ratatosk:

Ja.
I detta spel skall kanske tilläggas, finns nog inget annat som kommer i närheten vad gäller antal Drawcalls.
I ett demo från 3DMark ser man också detta, även demot Starswarm har sjukt mycket drawcalls.

Exakt. iOS och dess "Metal" API som också ska minimera overhead visar samma fenomen. En del tech-demos är enormt imponerande där man nu kan köra vansinnigt många drawcalls och att genom det är vissa scener nu möjliga som förut varit omöjliga. Men till vardags handlar det mer om vinsten man sett med AMD's Mantel, dvs kanske 10% på sin höjd.

Men ser vi en 20-80% boost genomgående på titlar vore givetvis inte det något att klaga på, i verkligheten, beroende på CPU / GPU / plattform, är denna siffra troligen mycket lägre.

Permalänk
Medlem
Skrivet av Erik.dv:

Exakt. iOS och dess "Metal" API som också ska minimera overhead visar samma fenomen. En del tech-demos är enormt imponerande där man nu kan köra vansinnigt många drawcalls och att genom det är vissa scener nu möjliga som förut varit omöjliga. Men till vardags handlar det mer om vinsten man sett med AMD's Mantel, dvs kanske 10% på sin höjd.

Men ser vi en 20-80% boost genomgående på titlar vore givetvis inte det något att klaga på, i verkligheten, beroende på CPU / GPU / plattform, är denna siffra troligen mycket lägre.

Att tänka på dock är att Mantle är relativt specifikt medans DirectX 12 är en väldigt bred samling APIer.

Visa signatur

Intel i5 2500k @ 4.5 GHz
Sapphire Radeon R9 290 Tri-X
Nåt annat skit

Permalänk
Hjälpsam

Lite prat från Oxide Games om deras demo.
http://oxidegames.com/2015/08/16/the-birth-of-a-new-api/

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av hACmAn:

Mitt 680 hade mycket högre värden gentemot 290x kortet i 3dmarks future test. Men den drv vilken den nu var på 290x sp, kom strax innan jag bytte kom de ifatt en hel del. Även om de låg lågt efter. Har även noterat att jag med 980ti som ja kör med nu har mycket lägre singel och multicore värden då dx11 om jat har hyperv på i widows 8 och windows 10,utan att ha några vp aktiva, eller som in w10 fallet inte ens skapat någon.

men i speltest så är dessa gamla kort helt ute mot 7970 som släpptes samtidigt

http://www.3dmark.com/compare/fs/3004700/fs/2974676

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

men i speltest så är dessa gamla kort helt ute mot 7970 som släpptes samtidigt

http://www.3dmark.com/compare/fs/3004700/fs/2974676

Mitt 680 överpresterade minna kompisars 7970 samt 280x då jag körde på 1228mhz låst i spel. Att 7970 är ett riktigt fint kort råder inga tvivel på. Men skulle snarare säga att testen visar att 4st 7970 skalar bättre i 3dmark än 4st 680.

Men det beror ju altid på vad man gör.

Edit:
Sen har jag problem att minna värden i 3dmark ofta visar fel CPU klock.
tvivar t.ex att i7-3930K i det du länkade värkligen har en maximal turbo clock på 1,211 MHz.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

Vet att jag läste när nyheten publicerades att folk efterlyste en jämförelse med 980ti och fury X istället.
(vet inte om någon redan hunnit posta).

Här är i alla fall en jämförelse med dem två med både dx11 och dx12.

http://www.extremetech.com/gaming/212314-directx-12-arrives-a...

Visa signatur

AMD Barton Xp 2400+ Mobile @ 2680 mhz!Sapphire Radeon 9800 pro @ orginal, TwinMos Winbond 2x256, 250 Gb WD S-ata, 120 gb Maxtor, Seagate 200 gb

Permalänk
Hjälpsam
Skrivet av Nudel:

Vet att jag läste när nyheten publicerades att folk efterlyste en jämförelse med 980ti och fury X istället.
(vet inte om någon redan hunnit posta).

Här är i alla fall en jämförelse med dem två med både dx11 och dx12.

http://www.extremetech.com/gaming/212314-directx-12-arrives-a...

Intressant.
Angående Nvidias resultat i DX11.
"The gap between AMD and Nvidia was smaller last week, but the 355.60 driver improved Team Green’s performance by an overall 14% and up to 25% in some of the batch-specific test. Oxide told us it has worked with Nvidia engineers for months to ensure the game ran optimally on DirectX 11 and 12, and these strong results bear that out."

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av nisse1:

Lite skumt är inte Ashes Ofthe Singularity utvecklad av AMD
Det står det på deras hemsida i alla fall.
http://www.ashesofthesingularity.com/

AotS är inte utvecklad av AMD. AMD loggan som finns i hörnet är av att spelet var först designat på Mantles API.

Visa signatur

Spelburk: R7 5700X | 5700 XT | 32GB RAM | MSI B350M PRO-VDH

Permalänk
Medlem
Skrivet av nisse1:

Lite skumt är inte Ashes Ofthe Singularity utvecklad av AMD
Det står det på deras hemsida i alla fall.
http://www.ashesofthesingularity.com/

Det förklaras här: http://www.overclock.net/t/1569897/various-ashes-of-the-singu...

Citat:

People wondering why Nvidia is doing a bit better in DX11 than DX12. That's because Nvidia optimized their DX11 path in their drivers for Ashes of the Singularity. With DX12 there are no tangible driver optimizations because the Game Engine speaks almost directly to the Graphics Hardware.

Permalänk
Medlem

Skillnaden mellan DX11 och DX12 när det gäller drawcalls för er som inte orkar klicka.

Anledningen Fury X presterar uselt i 1080p DX11 titlar

Citat:

People wondering why Nvidia is doing a bit better in DX11 than DX12. That's because Nvidia optimized their DX11 path in their drivers for Ashes of the Singularity. With DX12 there are no tangible driver optimizations because the Game Engine speaks almost directly to the Graphics Hardware. So none were made. Nvidia is at the mercy of the programmers talents as well as their own Maxwell architectures thread parallelism performance under DX12. The Devellopers programmed for thread parallelism in Ashes of the Singularity in order to be able to better draw all those objects on the screen. Therefore what were seeing with the Nvidia numbers is the Nvidia draw call bottleneck showing up under DX12. Nvidia works around this with its own optimizations in DX11 by prioritizing workloads and replacing shaders. Yes, the nVIDIA driver contains a compiler which re-compiles and replaces shaders which are not fine tuned to their architecture on a per game basis. NVidia's driver is also Multi-Threaded, making use of the idling CPU cores in order to recompile/replace shaders. The work nVIDIA does in software, under DX11, is the work AMD do in Hardware, under DX12, with their Asynchronous Compute Engines.

But what about poor AMD DX11 performance? Simple. AMDs GCN 1.1/1.2 architecture is suited towards Parallelism. It requires the CPU to feed the graphics card work. This creates a CPU bottleneck, on AMD hardware, under DX11 and low resolutions (say 1080p and even 1600p for Fury-X), as DX11 is limited to 1-2 cores for the Graphics pipeline (which also needs to take care of AI, Physics etc). Replacing shaders or re-compiling shaders is not a solution for GCN 1.1/1.2 because AMDs Asynchronous Compute Engines are built to break down complex workloads into smaller, easier to work, workloads. The only way around this issue, if you want to maximize the use of all available compute resources under GCN 1.1/1.2, is to feed the GPU in Parallel... in comes in Mantle, Vulcan and Direct X 12.

People wondering why Fury-X did so poorly in 1080p under DirectX 11 titles? That's your answer.

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600

Permalänk
Hjälpsam

Nytt DX12 spel på ingång, tyvärr ett så kallat Early Access spel.

Citat:

Patch Notes- Current (v202.2) & Upcoming
Current ARK Official Server Network Servers Version: 202.0

This Friday:
- New Creature: Mesopithecus
- Smoke Grenades
- DirectX12 Mode for Windows 10! Approximate +20% perf
- "Survival of the Fittest: Unnatural Selection" Event + Tournament

http://steamcommunity.com/app/346110/discussions/0/5948206564...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Nytt DX12 spel på ingång, tyvärr ett så kallat Early Access spel.

http://steamcommunity.com/app/346110/discussions/0/5948206564...

Som jag förstått det är Ark ett sådant spel som verkligen behöver ha en liten boost i prestanda och kan DX12 fixa detta så vore det grymt. Är detta de första spelet, EA eller inte, som man kan spela som stöder DX12 för tillfället?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Inaktiv
Skrivet av kevve1:

Som jag förstått det är Ark ett sådant spel som verkligen behöver ha en liten boost i prestanda och kan DX12 fixa detta så vore det grymt. Är detta de första spelet, EA eller inte, som man kan spela som stöder DX12 för tillfället?

Ashes of the Singularity var först. Detta blir alltså spel nummer två med dx12. Notera dock att båda är "early access", "alpha" eller vad man nu vill kalla det.

Permalänk
Hjälpsam

Diskussion om Ashes, tydligen plockades användande av "Async Compute", bort från Maxwell på Nvidias begäran.
Nvidia stödjer detta men det presterar i nuläget så dåligt att det är bättre att inte använda "Async Compute".

Citat:

Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that. The only other thing that is different between them is that Nvidia does fall into Tier 2 class binding hardware instead of Tier 3 like AMD which requires a little bit more CPU overhead in D3D12, but I don't think it ended up being very significant. This isn't a vendor specific path, as it's responding to capabilities the driver reports.

http://www.overclock.net/t/1569897/various-ashes-of-the-singu...
Ganska långt inlägg men väldigt läsvärt, det ger en glimt av hur saker ser ut från en utvecklares perspektiv.

Möjligt att saken åtgärdas i en framtida patch.
Åtgärdas det inte har vi en möjlig skitstorm i antågande men det blir väl som vanligt, "Åh vad jag är arg på Nvidia, jag kommer genast byta ut mitt gamla kort,..... så fort Pascal har släppts."

Verkar också som att GCN-monstret vrålar och kastar sig mot kedjorna, vi får se om någon vågar släppa lös det.

Citat:

I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.

Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don't think Unreal titles will show this very much though, so likely we'll have to wait to see. Has anyone profiled Ark yet?

edit So it begins the great shitstorm.
https://www.reddit.com/r/nvidia/comments/3iwt2j/oxide_nv_gpus...
Förstår upprördheten, detta är en av DX12:s kärnfunktioner.
edit 2
Skall inte dra för stora växlar heller, gäller bara ett spel och detta kanske fixas via drivers,

edit2 Nvidia klarar tydligen Async Compute, problemet är att de inte klarar det samtidigt som grafikberäkningar körs.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |