Deus Ex: Mankind Divided uppdateras – får stöd för DirectX 12

Permalänk
Skrivet av Silcan:

kanske, vore kul om det gav prestanda boost.

Ja när redan mantel i bf4 gav en bra prestanda boost på vissa kort så tycker man att dx12 år senare ska kunna ge lite positivt resultat men icke än så länge.

Visa signatur

Kaffe Sjön: 9700K @ 5.1GHz | H150i Pro RGB 360 | Aorus Gaming 7 | Vengeance RGB Pro 32GB | XFX Merc 319 6960 XT | Xiaomi 3440x1400 | Samsung 4k VA | HX850i | K95 Platinum RGB | H500P "HAF II" | Oculus Quest 2 | S22 Ultra | Galaxy Watch 5
HAF: 2700K @ 5.1Ghz | Noctua NH-D14 | EVGA 1080 Superclocked | Asus Maximus IV Extreme Z | Dell 27" Ultrasharp | HX850i | Vengeance 32GB | Samsung EVO 850 256GB 3x | HAF 932 "Pitch black" | (+ 8st Amiga, A500 till 4000T Cyberstorm PPC)

Permalänk
Medlem

Mitt ena 290X fick en skjuts över 50 FPS average strecket med High inställningarna, där jag tidigare på 44. Så jag är nöjd, ska bli intressant när vi får den färdiga patchen som kommer den 19:e, som också ger multi-gpu stöd. 85+ i average hoppas jag på.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Datavetare
Skrivet av PalmiNio:

I teorin ligger Maxwell inte bar till vad gäller DX12 även om koden är välskriven. I teorin skulle de gynna Pascal men även där finns det skillnader i DX12 stödet jämfört med GCN.

I teorin och praktiken så gynnas GCN av DX12 ganska enkelt då den kan hantera kön från parallella draw calls från CPU trådar.

Så MAxwell kommer aldrig känna någon DX12 Löve så som 2XX och 3XX serien hos AMD gör.

I teorin och praktiken (se 3DMarks draw-call overhead test) så gynnas alla GPUer av DX12 förutsatt att flaskhalsen ligger på CPU-sidan och orsakad av brutalt antal draw-calls.

I praktiken är det inte flaskhals i dagens spel, framförallt inte om man har en lite bättre CPU.

Kvar finns då att spelutvecklaren ska göra ett bättre jobb än drivrutinsutvecklarna samt den lilla vinst man kan få från att utnyttja DX12 multi-engine-koncept ("async shaders").

Att det varit så mycket fokus på det senare är nog främst då det är ett stöd som är relativ enkelt att stoppa in i dagens spelmotorer, men så här långt har inget spel fått mer än 10 % boost specifikt från "async shaders" (det är AoS, Hitman fick som mest 5-6 %). "Rekordet" för boost från "async shaders" har så här långt 3D Mark Time Spy där Fury/390X ser runt 15 % boost enbart från detta, dock ett benchmark och inte ett spel.

När väl spelmotorerna är skrivna helt från grunden att dra nytta av DX12 kommer alla dagens GPUer få en boost. Men är nog rätt irrelevant för den omdesignen kommer ta ett gäng år så t.ex. Maxwell lär vara historia när det väl drar ihop sig.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Fisken1986:

Dx12 blir intressant när man faktiskt får prestandaskillnad till det bättre, samtidigt som det ser avsevärt mycket bättre ut grafikmässigt..just nu är Vulcan och DX12...meh..ok..

I doom vulcan fick jag runt 30fps extra när jag körde cpun oklockad i 1440p ultra settings på ett gtx 1070 så vulcan funkar utmärkt till skillnad från sunk dx12.

Visa signatur

Kaffe Sjön: 9700K @ 5.1GHz | H150i Pro RGB 360 | Aorus Gaming 7 | Vengeance RGB Pro 32GB | XFX Merc 319 6960 XT | Xiaomi 3440x1400 | Samsung 4k VA | HX850i | K95 Platinum RGB | H500P "HAF II" | Oculus Quest 2 | S22 Ultra | Galaxy Watch 5
HAF: 2700K @ 5.1Ghz | Noctua NH-D14 | EVGA 1080 Superclocked | Asus Maximus IV Extreme Z | Dell 27" Ultrasharp | HX850i | Vengeance 32GB | Samsung EVO 850 256GB 3x | HAF 932 "Pitch black" | (+ 8st Amiga, A500 till 4000T Cyberstorm PPC)

Permalänk
Datavetare
Skrivet av -=Sh/\rK=-:

I doom vulcan fick jag runt 30fps extra när jag körde cpun oklockad i 1440p ultra settings på ett gtx 1070 så vulcan funkar utmärkt till skillnad från sunk dx12.

Eller så är OpenGL drivarna inte i närheten lika optimerade som DX11 drivarna, vilket gör det betydligt enklare att se en vinst. Jämför hur Vulkan står sig mot DX11 i DOTA2 och Talos Principle... (det är samma visa som vi sett för DX12).

Och varför skulle Nvidia/AMD lägga krut på att optimera för OpenGL för deras konsumentprodukter, vilket spel innan Doom körde med OpenGL?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ekorrism:

Som jag sett så är fury x i samma prestanda som 1080 som tappar ca 10% på dx12 i denna titel o amd fury x tjänar 3-6fps dvs ca 6-7% prestanda.. I 1440p skiljer de typ 1-3fps...

http://www.guru3d.com/articles-pages/deus-ex-mankind-divided-...

Skickades från m.sweclockers.com

Kul att mitt fury som jag la 3500kr för är snabbare än ett 1080 för nästan 3 ggr mera.

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Skrivet av Yoshman:

Eller så är OpenGL drivarna inte i närheten lika optimerade som DX11 drivarna, vilket gör det betydligt enklare att se en vinst. Jämför hur Vulkan står sig mot DX11 i DOTA2 och Talos Principle... (det är samma visa som vi sett för DX12).

Och varför skulle Nvidia/AMD lägga krut på att optimera för OpenGL för deras konsumentprodukter, vilket spel innan Doom körde med OpenGL?

Ja så är det helt klart, inte mycket speloptimering i opengl. I just Talos Principle vill jag minnas att utvecklaren sa att han enbart lagt till stöd för nya gränsnitt så det skulle funka men inte gjort några optimeringar alls.

Nej förutom Id softwares spel och Brink så är det knappt några som kört opengl så dom har ju inte haft någon större anledning att lägga resurser på det.

Visa signatur

Kaffe Sjön: 9700K @ 5.1GHz | H150i Pro RGB 360 | Aorus Gaming 7 | Vengeance RGB Pro 32GB | XFX Merc 319 6960 XT | Xiaomi 3440x1400 | Samsung 4k VA | HX850i | K95 Platinum RGB | H500P "HAF II" | Oculus Quest 2 | S22 Ultra | Galaxy Watch 5
HAF: 2700K @ 5.1Ghz | Noctua NH-D14 | EVGA 1080 Superclocked | Asus Maximus IV Extreme Z | Dell 27" Ultrasharp | HX850i | Vengeance 32GB | Samsung EVO 850 256GB 3x | HAF 932 "Pitch black" | (+ 8st Amiga, A500 till 4000T Cyberstorm PPC)

Permalänk
Medlem

Härligt med DX12! Har inte ens startat spelet ännu, tänkte hålla på det lite till

Permalänk
Skrivet av PalmiNio:

Tror det var sarkasm

måste nog vara så, jag är värdelös på sarkasm så förvånar mig inte om jag totalt missat det xD xD

Visa signatur

- Citera för svar -

Permalänk
Medlem
Skrivet av Yoshman:

AMDs ess i rockärmen är konsolerna, utan dem skulle DX12 vara ett mörker på lite längre sikt givet dagens fördelning av resurser.

Just detta är det som jag tror kommer ge AMD en rejäl fördel i framtiden. De allra flesta större spel görs i första hand med prio på konsollerna. Kan utvecklarna då använda merparten av den optimerade renderingskoden även till PC-versionen är mycket vunnet. Eftersom Xbone/PS4 bägge kör GCN, finns ju redan grunden där och torde kräva mindre handpåläggning än Nvidias kort för att prestera bra.

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem
Skrivet av Yoshman:

I teorin och praktiken (se 3DMarks draw-call overhead test) så gynnas alla GPUer av DX12 förutsatt att flaskhalsen ligger på CPU-sidan och orsakad av brutalt antal draw-calls.

I praktiken är det inte flaskhals i dagens spel, framförallt inte om man har en lite bättre CPU.

Kvar finns då att spelutvecklaren ska göra ett bättre jobb än drivrutinsutvecklarna samt den lilla vinst man kan få från att utnyttja DX12 multi-engine-koncept ("async shaders").

Att det varit så mycket fokus på det senare är nog främst då det är ett stöd som är relativ enkelt att stoppa in i dagens spelmotorer, men så här långt har inget spel fått mer än 10 % boost specifikt från "async shaders" (det är AoS, Hitman fick som mest 5-6 %). "Rekordet" för boost från "async shaders" har så här långt 3D Mark Time Spy där Fury/390X ser runt 15 % boost enbart från detta, dock ett benchmark och inte ett spel.

När väl spelmotorerna är skrivna helt från grunden att dra nytta av DX12 kommer alla dagens GPUer få en boost. Men är nog rätt irrelevant för den omdesignen kommer ta ett gäng år så t.ex. Maxwell lär vara historia när det väl drar ihop sig.

Med risk för att låta dum nu, men förutsätter förbättringarna i DX12/Vulkan på CPU-sidan att utvecklarna ska sköta allting på GPU-delen själv?

Jag menar, jag har fått intrycket att Microsoft gick lite väl långt med att ge så mycket kontroll till utvecklarna. Hade det varit omöjligt att erbjuda en högnivåversion av DX12 som kunnat ge stora förbättringar i draw calls, men som annars behållit samma typ av ansvarsfördelning som DX11?

Permalänk
Medlem

kul spel får dx12 tyvärr lider det av grafiska buggar.

på HIGH med 980 5820k @ 4.7Ghz 80-90 fps. DX12
very high-ultra kan inte ha för kräver mer än 4GB grafik minne.

Visa signatur

amd xp 2000+ | abit kx7-333R with USB 2.0 | 256 ddr pc-266 | WD 80 GB 7200 rpm + Maxtor 740-6L 60 GB 7200 rpm ata-133 + 4 120 GB i raid 1+0 | Inno3d Geforce 4 ti-4200 128 ddr | Memorexx dvd 16x48 | Artec 32x12x48 | PSU 350 watt (tyst) | Windows XP Proffesionell

Permalänk
Medlem
Skrivet av Yoshman:

Eller så är OpenGL drivarna inte i närheten lika optimerade som DX11 drivarna, vilket gör det betydligt enklare att se en vinst. Jämför hur Vulkan står sig mot DX11 i DOTA2 och Talos Principle... (det är samma visa som vi sett för DX12).

Och varför skulle Nvidia/AMD lägga krut på att optimera för OpenGL för deras konsumentprodukter, vilket spel innan Doom körde med OpenGL?

World of warcraft och Valves source-motor kör väl OpenGL?

Visa signatur

Kom-pa-TI-bilitet

Permalänk
Medlem
Skrivet av Netforce:

kul spel får dx12 tyvärr lider det av grafiska buggar.

på HIGH med 980 5820k @ 4.7Ghz 80-90 fps. DX12
very high-ultra kan inte ha för kräver mer än 4GB grafik minne.

I vilken upplösning spelar du?

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Testade detta i slutet av banan där man möter Rucker. Högre FPS, stutter och slutligen en krasch. Kändes fortfarande grovpolerat. Inget för mig.

Permalänk
Medlem
Skrivet av Yoshman:

Och varför skulle Nvidia/AMD lägga krut på att optimera för OpenGL för deras konsumentprodukter, vilket spel innan Doom körde med OpenGL?

Skrivet av Teknocide:

World of warcraft och Valves source-motor kör väl OpenGL?

Det spel jag tänker främst på är Id Tech 5-spelet Wolfenstein: The New Order, som ju dessutom är utvecklat av Machine Games i just Uppsala. Kanske det ligger för långt från Nvidias optimeringscenter för att de skulle kunna optimera för OpenGL?

I övrigt är det inte så mycket, såklart de andra nya Id Tech 5-spelen Wolfenstein: The Old Blood och The Evil Within.
Kommande Dishonored 2 har också övergått till Id Tech från Unreal Engine eftersom Arkane Studios ligger under Bethesda. I den video jag såg från Quakecon i augusti talade utvecklaren om att de hade skrivit om och utvecklat koden från Id Tech 6. I så fall kunde man hoppas på Vulkanstöd i Dishonored 2, OpenGL känns överspelat efter Doom. Troligen var det dock en felsägning, och spelet bygger inte på Id Tech 6 utan Id Tech 5, och därmed bara OpenGL.

Vad jag kan spekulera i är att det är troligt att fler utvecklare under Bethesda kommer att använda Id Tech 6, och då blir det med all säkerhet spel med stöd för Vulkan. Vad sägs t ex om ett Elder Scrolls med Vulkanstöd? Inte helt orimligt med tanke på Rages öppna spelvärld i Id Tech 5.

Permalänk
Datavetare
Skrivet av dunis90:

Med risk för att låta dum nu, men förutsätter förbättringarna i DX12/Vulkan på CPU-sidan att utvecklarna ska sköta allting på GPU-delen själv?

Jag menar, jag har fått intrycket att Microsoft gick lite väl långt med att ge så mycket kontroll till utvecklarna. Hade det varit omöjligt att erbjuda en högnivåversion av DX12 som kunnat ge stora förbättringar i draw calls, men som annars behållit samma typ av ansvarsfördelning som DX11?

DX12 kräver fortfarande en drivrutin och det är absolut fortfarande kritisk för att GPUn ska prestera väl. T.ex. så är det drivrutinens uppgift att översätta det generella format shaders distribueras till en optimal format för aktuell GPU-krets.

När man gör "draw-calls" så skulle prestanda suga totalt om man varje gång kommunicerade med GPUn. Så både DX11 och DX12 gör för de flesta "draw-calls" bara en notering i RAM (det kopplat till CPU) kring vad som ska göras. Den stora skillnaden här är att spelutvecklaren är i total kontroll exakt när kommunikation med GPU sker i DX12, hela detta är en grundbult i att DX12 ska kunna utnyttja många CPU-kärnor bättre.

I DX11 måste drivarna i vissa lägen "gissa" när det är lämpligt att faktiskt kommunicera med GPU. Rätt säker att det är just i detta "gissande" majoriteten av krutet läggs när man gör optimeringar för specifika spel, man lär sig mönster i hur spelet uppför sig och man kanske ser att när A, B och C hänt är det lämpligt att köra en batch mot GPU. Denna typ av optimering kräver dock stora resurser och egentligen återskapar man bara information som speldesignern rimligen redan sitter på (men som inte kan förmedlas i DX11).

Ett potentiellt problem i DX12 är att det för en viss GPU kanske är optimalt att göra A, B, C och även D medan det för någon annan är bäst att köra en batch efter C och en till efter D. I detta fall lär alla spel göra det som fungerar bäst i genomsnitt medan DX11 drivare mycket väl kan göra det som är bäst för respektive GPU då AMD och Nvidia har ett stort egenintresse att optimera för sina kretsar.

På det stora hela är ändå DX12 klart bättre än DX11 här, speldesignen sitter som sagt rimligen på information kring hur spelet normalt uppför sig och borde då inte vara så svårt att vara explicit.

Där jag tror man främst gick för långt och där ett framtida DX13 lär backa mot DX11 är minneshantering. Ingen annanstans inom programutveckling har riktigt varit mot mer explicit minneshantering, i DX12/Vulkan är den extremt explicit. Här finns det massor med små detaljer som drivare kan utnyttja (och förhoppningsvis görs detta) som blir otroligt drygt för en spelmotor att hantera då det skiljer mellan olika kort, även kort med samma mikroarkitektur men olika bussbredd!!!

Finns också flera indikationer på att DX12 lägena kräver mer VRAM än DX11 (framförallt på Nvidia), trots att det som renderas på skärmen är identiskt. Finns några titlar som inte ens startar med 2 GB VRAM i DX12 trots att det är full möjligt att köra dem (med nedskalade inställningar) i DX11.

Specifikt för 1060 verkar det inte finnas något spel där man kan köra med inställningar som ger minst 60 FPS och där 3 GB är en begränsning med DX11. Däremot finns det fall där DX12 har problem med 3 GB VRAM.

Minneshantering är extremt svårt att göra både effektivt och korrekt. Så känns väldigt udda att man gjorde detta så explicit. Kan ju bli fördelar i framtiden, men just nu verkar spelutvecklarna göra ett rätt ordentligt mycket sämre jobb än DX11 drivarna.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Gjorde benchmarken själv nyss, och mina siffror motsvarar mer eller mindre Sweclockers, lite bättre FPS än deras 980, men så är min ordentligt överklockad. Även motsvarande tapp i DX12. Däremot såg jag en intressant sak, i vissa delar av scenen gick GPU användningen ner till mellan 90 och 80% i DX12. Däremot i DX11 så ligger den på max rakt igenom hela benchmarken. Kan mycket väl tänka mig att det är där som DX12 tappar mot DX11 på mitt 980. Undrar vad det beror på.

Visa signatur

AMD Ryzen 9 5900X @5GHz, 32 GB DDR4 @3600MHz, RTX 3070 8GB RAM

Permalänk
Datavetare
Skrivet av Teknocide:

World of warcraft och Valves source-motor kör väl OpenGL?

Har aldrig spelat WoW, men google säger att det finns OpenGL stöd, alla fall i ändra varianter av WoW, men de saknar många finesser som finns i DX9 back-end. Finns ingen anledning att köra OpenGL på Windows då DX9 presterar bättre i denna titel.

Nyare inkarnationer av spelet verkar stödja DX11 och tror att OpenGL stödet är droppat.

Source-motorn har primärt kört DX på Windows sedan HL2 (som har stöd för DX7, DX8 och DX9). Men här finns stöd för OpenGL, dock ingen poäng att köra det på Windows då DX presterar bättre. Har för mig att första till och med första Half Life hade DX-stöd (det hade absolut OpenGL stöd då det använde Quake 2 motorn).

Skrivet av bopp:

Det spel jag tänker främst på är Id Tech 5-spelet Wolfenstein: The New Order, som ju dessutom är utvecklat av Machine Games i just Uppsala. Kanske det ligger för långt från Nvidias optimeringscenter för att de skulle kunna optimera för OpenGL?

I övrigt är det inte så mycket, såklart de andra nya Id Tech 5-spelen Wolfenstein: The Old Blood och The Evil Within.
Kommande Dishonored 2 har också övergått till Id Tech från Unreal Engine eftersom Arkane Studios ligger under Bethesda. I den video jag såg från Quakecon i augusti talade utvecklaren om att de hade skrivit om och utvecklat koden från Id Tech 6. I så fall kunde man hoppas på Vulkanstöd i Dishonored 2, OpenGL känns överspelat efter Doom. Troligen var det dock en felsägning, och spelet bygger inte på Id Tech 6 utan Id Tech 5, och därmed bara OpenGL.

Vad jag kan spekulera i är att det är troligt att fler utvecklare under Bethesda kommer att använda Id Tech 6, och då blir det med all säkerhet spel med stöd för Vulkan. Vad sägs t ex om ett Elder Scrolls med Vulkanstöd? Inte helt orimligt med tanke på Rages öppna spelvärld i Id Tech 5.

Vilket svarar frågan jag hade ovan: statistiskt sett finns inga spel som använder OpenGL under Windows de senaste tio åren. Så varför optimera för det?

Doom ändrar egentligen ingenting, precis som du skriver: varför lägga resurser på OpenGL i den motorn nu när Vulkan finns?

Och poängen var alltså: man kan inte tittat på Doom och dra slutsatsen att Vulkan är bättre än DX12 bara för man ser en större vinst att gå från OpenGL till Vulkan än vad vi sett mellan DX11 och DX12. Självklart blir lyftet från OpenGL till Vulkan större då drivrutiner för OpenGL (tyvärr) inte är något som fått någon större mängd kärlek från AMD och Nvidia (i alla fall för deras konsumentmodeller).

Ta DOTA som har DX11, OpenGL och Vulkan stöd. Där presterar DX11 bättre än de andra alternativen i de flesta fall, finns något GCN-kort som presterar marginellt bättre med Vulkan.

Förhoppningsvis dyker det upp något spel som har både Vulkan och DX12 stöd, lär vara i det närmaste identisk prestanda mellan dessa då de är extremt lika i sin design. Apples Metal är också väldigt lik de andra två, vilket inte är så konstigt då alla dessa APIer använder samma mall i botten: gränssnittet dagens GPUer presenterar mot resten av systemet (ett gränssnitt som skiljer sig en hel del från de GPUer OpenGL och tidigare DX använt som mall).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Eller så är OpenGL drivarna inte i närheten lika optimerade som DX11 drivarna, vilket gör det betydligt enklare att se en vinst. Jämför hur Vulkan står sig mot DX11 i DOTA2 och Talos Principle... (det är samma visa som vi sett för DX12).

Och varför skulle Nvidia/AMD lägga krut på att optimera för OpenGL för deras konsumentprodukter, vilket spel innan Doom körde med OpenGL?

hmm om vi tar DOTA2 så flyter spelet på bättre under Vulkan än DX11 på Nvidia kort, även fast det är något lägre FPS.
Talos Priciple är en Vulkan wrapper och inte direkt väll optimerad, men förstår varför du väljer detta spel då det är väll nästan det enda spel som har stöd för så många olika APIer, men är ändå inte någon bra jämförelse, då det är en wrapper och dålig implementation av Vulkan.