DirectX 12 "Agility" med Shader Model 6.6 visas i april

Permalänk
Melding Plague

DirectX 12 "Agility" med Shader Model 6.6 visas i april

Nästa generation av Microsofts mjukvaruutvecklingskit för DirectX 12 samt nya rön inom ray tracing och Directstorage visas på Game Stack Live.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Kalas! Men borde det inte heta 12.1 eller så?

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Konsolpleb 🕹
Skrivet av Herr Kantarell:

Kalas! Men borde det inte heta 12.1 eller så?

Diretcx 12 har fått många uppdateringar under sex år som är betydligt större än denna.
Så egentligen är vi väl på cirka directx 12.7 eller något i den stilen - om MS hade skött versionsnummer så

Visa signatur

240p är livet

Permalänk
Inaktiv

Spännande, känns bra att DirectX utvecklas i vad som iallafall verkar vara högre grad än tidigare och dessutom supportas av hårdvarutillverkarna. DX 10 och 10.1 samt 12 inledningsvis gick det trögt med för att ta tre exempel.

Skrivet av Herr Kantarell:

Kalas! Men borde det inte heta 12.1 eller så?

Vem gillar inte 6?

Permalänk
Medlem
Skrivet av anon5930:

Spännande, känns bra att DirectX utvecklas i vad som iallafall verkar vara högre grad än tidigare och dessutom supportas av hårdvarutillverkarna. DX 10 och 10.1 samt 12 inledningsvis gick det trögt med för att ta tre exempel.

Vem gillar inte 6?

Föredrar att spela dator 👀

Visa signatur

Processor: Intel i9 9900K @ 4,7Ghz kyld av Noctua NH-D15 | Moderkort: Gigabyte Z390 Aorus Ultra | RAM: G.Skill Trident Z 16GB 3200Mhz | Grafikkort: MSI RTX 2080 Gaming X Trio | Chassi: Fractal Design Define S2 | PSU: Corsair RM750x | Hdd: Samsung 970 Evo 500GB & Seagate Barracuda 2TB |

Permalänk
Medlem

I princip vad som helst om DirectStorage är ju intressant med tanke på hur revolutionerande det är.

Permalänk
Medlem

Sen blir det snack om HDR för våra kära burkar. Det gör mig väldigt intresserad

"Potentially big news coming this month for Windows 10 HDR users"

https://www.reddit.com/r/OLED_Gaming/comments/mmvn7q/potentia...

Permalänk
Medlem
Skrivet av Sveklockarn:

I princip vad som helst om DirectStorage är ju intressant med tanke på hur revolutionerande det är.

Presis. Känns som det totalt exploderat med stora framsteg den senaste tiden. Behövs verkligen med tanke på hur vi Vill att spelen skall kunna se ut. Krävs smarta lösningar

Permalänk
Medlem
Skrivet av NorthLight:

Sen blir det snack om HDR för våra kära burkar. Det gör mig väldigt intresserad

"Potentially big news coming this month for Windows 10 HDR users"

https://www.reddit.com/r/OLED_Gaming/comments/mmvn7q/potentia...

Fy fan vad fint. Har väntat på det.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Ska verkligen bli spännande att se resultaten av Directx12 i spel de närmaste åren. Misstänker att mycket släppt innan Turing och RDNA2 kan falla av ganska snabbt i prestanda i nya spel om 1-2 år, VRS, mesh shaders och DirectStorage kommer nog ge en bra prestandaökning. DirectStorage är jag mest sugen på, vill helst ha den möjligheten igår så man kan nyttja nvme diskarna bättre när man nu har dem.

Permalänk
Medlem

ser fram emot detta 🙂👍 trevligt med lite bra nyheter 😃

Visa signatur

In science we trust!

Permalänk
Konsolpleb 🕹

Ett trevligt fokus verkar vara att årets stora tema också är att accelerera utvecklingen i form av hur snabbt utvecklare kan anamma ny teknik (så som ray tracing, directstorage, mesh shaders etc).

Visa signatur

240p är livet

Permalänk
Tangentbordskonnässör
Skrivet av UndaC:

Ett trevligt fokus verkar vara att årets stora tema också är att accelerera utvecklingen i form av hur snabbt utvecklare kan anamma ny teknik (så som ray tracing, directstorage, mesh shaders etc).

Det är ju just det här som är super viktigt. Är det inte lätt att implementera så blir det inte av, eller så blir alla spel som vill köra det senaste som cyberpunk istället. 😁

Permalänk
Medlem
Skrivet av huttala:

Det är ju just det här som är super viktigt. Är det inte lätt att implementera så blir det inte av, eller så blir alla spel som vill köra det senaste som cyberpunk istället. 😁

Det behöver inte bara vara lätt att implementera, det måste finnas en volymsmarknad också.
Nu är det ju inte aktuellt att implementera mer än vissa ljusfunktioner med RT, men när/om det blir aktuellt kommer det att visa sig att ljussättning helt enkelt är svårt. Även i filmproduktion där man har lyxen av helt förutbestämda kameravinklar är ljussättning en konst. Om du har en spelare som är fri att röra sig (och annars är det inte mycket till spel) höjs ribban rejält.
Dubbelarbetet att ha separata ljussättningslösningar beroende på hårdvara kommer att kosta.

Intressant utveckling att följa, men knappast för den som har bråttom.

Permalänk
Medlem
Skrivet av UndaC:

Ett trevligt fokus verkar vara att årets stora tema också är att accelerera utvecklingen i form av hur snabbt utvecklare kan anamma ny teknik (så som ray tracing, directstorage, mesh shaders etc).

Kan det kanske också vara så att det kommer att bli möjligt att programmera raytracingen mer anpassat till RDNA 2 i nästa version av DirectX?

Raytracingen på PS5 i Spiderman: Miles Morales verka vida kunna överstiga vad som verkar gå bra på pc, trots att PS5 har en relativt vek RDNA 2-gpu. På Digital Foundry kunde jag märka en viss frustration över det. Richard Leadbetter tycker att hårdvaran i RDNA 2 verkligen kan producera "some excellent raytracing results", men det skalar inte över på pc-sidan. Än iaf.

En förklaring till det kan enligt DF kunna vara resultatet av när en begåvad utvecklare inriktat sig just på att anpassa raytracingen mer specifikt till RDNA 2, som Insomniac Games i Miles Morales, men också på att PS5 verkar tillåta en mycket friare programmering för RDNA 2. En programmerbarhet som inte finns i DirectX idag.

Resultaten på pc-sidan kan alltså delvis bero på att spelen vi ser nu är utvecklade och optimerade kring en mer Turing/Amperevänlig raytracingbudget, "early adopter advantage" som DF säger, vilket inte är så konstigt, men också delvis på DirectX. Kan AMD påverka Microsoft till att inkludera den programmerbarhet de behöver till att bli en del av DirextX? De borde kunna göra det, för jag antar att det också skulle kunna innebära fördelar för Xbox X/S gentemot PS5...

Själv köper jag inte att AMD per default har svagare raytracing än Nvidia pga att hårdvaran skulle vara väldigt mycket sämre i sig, dvs den generiska gen1 vs gen2-förklaringen som man ofta hör. Visserligen är det nog en del av förklaringen, men att det är hela förklaringen känns som en alltför simplifierad, bekväm och grund analys av det faktiska läget, och jag lutar mer åt DF:s inställning.

Sedan är som sagt frågan vad som kan göras åt det just nu, det förändrar inte läget i praktiken; tyngre raytracing på pc är just nu inte så mycket en feature för RDNA 2. SAM kan eventuellt vara en sån sak som temporärt kan hjälpa lite. Kan man mha SAM t ex få upp prestandan i CP 11-13% som det verkar i 1080p/1440p, så är det iaf en början. Det gör att RDNA 2 visserligen inte faller mindre procentuellt sett som vi kunde se i Sweclockers test, men fallet sker då från en högre nivå, och det landar på en motsvarande högre nivå.

Permalänk
Konsolpleb 🕹
Skrivet av bopp:

Kan det kanske också vara så att det kommer att bli möjligt att programmera raytracingen mer anpassat till RDNA 2 i nästa version av DirectX?

Raytracingen på PS5 i Spiderman: Miles Morales verka vida kunna överstiga vad som verkar gå bra på pc, trots att PS5 har en relativt vek RDNA 2-gpu. På Digital Foundry kunde jag märka en viss frustration över det. Richard Leadbetter tycker att hårdvaran i RDNA 2 verkligen kan producera "some excellent raytracing results", men det skalar inte över på pc-sidan. Än iaf.

En förklaring till det kan enligt DF kunna vara resultatet av när en begåvad utvecklare inriktat sig just på att anpassa raytracingen mer specifikt till RDNA 2, som Insomniac Games i Miles Morales, men också på att PS5 verkar tillåta en mycket friare programmering för RDNA 2. En programmerbarhet som inte finns i DirectX idag.

Resultaten på pc-sidan kan alltså delvis bero på att spelen vi ser nu är utvecklade och optimerade kring en mer Turing/Amperevänlig raytracingbudget, "early adopter advantage" som DF säger, vilket inte är så konstigt, men också delvis på DirectX. Kan AMD påverka Microsoft till att inkludera den programmerbarhet de behöver till att bli en del av DirextX? De borde kunna göra det, för jag antar att det också skulle kunna innebära fördelar för Xbox X/S gentemot PS5...

Själv köper jag inte att AMD per default har svagare raytracing än Nvidia pga att hårdvaran skulle vara väldigt mycket sämre i sig, dvs den generiska gen1 vs gen2-förklaringen som man ofta hör. Visserligen är det nog en del av förklaringen, men att det är hela förklaringen känns som en alltför simplifierad, bekväm och grund analys av det faktiska läget, och jag lutar mer åt DF:s inställning.

Sedan är som sagt frågan vad som kan göras åt det just nu, det förändrar inte läget i praktiken; tyngre raytracing på pc är just nu inte så mycket en feature för RDNA 2. SAM kan eventuellt vara en sån sak som temporärt kan hjälpa lite. Kan man mha SAM t ex få upp prestandan i CP 11-13% som det verkar i 1080p/1440p, så är det iaf en början. Det gör att RDNA 2 visserligen inte faller mindre procentuellt sett som vi kunde se i Sweclockers test, men fallet sker då från en högre nivå, och det landar på en motsvarande högre nivå.

Jag håller nog inte med fullt ut. Av en rad anledningar, vissa strategiska andra tekniska.

Strategiskt:
DXR 1.1 är specifikt framtaget tillsammans med AMD för att optimera prestandan för deras kort och för det andra har Microsoft ett enormt investerat intresse i att se till att det fungerar så bra som möjligt i och med att de själva faktiskt säljer hårdvaran ju i och med Xbox Series.

Tekniskt:
AMD:s ray accelerators / texture processors är inte frikopplade från varandra som i Ampere. Dvs arkitekturen måste köra antingen eller, nvidia kan köra parallellt.
Självklart att Nvidia helt enkelt har en generations försprång i allmänhet.
RT-kärnorna i Ampere verkar helt enkelt mer kapabla och mindre picky.

Potentiellt:
AMD saknar tensor-kärnor för de-noise. (Nu verkar det dock inte användas i dagsläget förutom i Optix)

Optimeringar det talats om:
T.ex. en optimering som det talas om för AMD är ju wave32 istället för wave64. Men (vissa) spel har ju implementerat detta sedan RDNA2 släpptes och prestandavinsterna har varit försumbara, typ 2-3 %. (Vet att det har visats demo där specifika tasks kan bli upp mot 20% snabbare men det är ju en specifik task)

Angående Miles Morales så håller jag med om att det är ett väloptimerat spel. Men likt andra RT-implementationer som fungerar med godkända resultat på RDNA2 så är det också en one trick pony, lite som WOW, Godfall, COD etc. Man gör en enda sak med RT (vilket är reflektioner i Miles Morales, men skuggor i de flesta andra spel som funkar bra på RDNA2).

Sådana scenario funkar helt ok på PC också har vi sett så jag är inte helt övertygad om att det är någon enorm fördel i PS5ans API eller speloptimeringar som gör att det är så mycket bättre än PC.

Det RDNA2 verkar ha mycket svårare för jämfört med Ampere/Turing är så fort RT används till mer än bara en sak. Det är väldigt tydligt i de flesta spel att AMD klarar hyffsat att slå på en RT-effekt. Men så fort ett bredare smörgåsbord aktiveras så faller RDNA2 hårt medan Ampere och Turing klarar sig mycket bättre.

(Och då har vi inte ens vägt in DLSS och kommande Superresolution. Där Nvidia har Tensor-kärnor för att accelerera DLSS kommer AMD att behöva köra Superresolution fullt ut på sina CUs och på så vis konkurrera med sin egen RT- och rastereringsprestanda.)

Vill inte trasha AMD här, det är inte tanken med att lista argumenten, men jag tror inte att det finns någon nämnvärt stor ouppdämd potential här.
Smarta implementationer som passar RDNA2 där RT används för en enskild effekt - absolut.
Att som helhet närma sig Ampere eller Turing i förhållande till RT på ett betydande sätt - nope.

Men skulle ju gärna bli glatt överraskad

Visa signatur

240p är livet

Permalänk
Medlem

Alla har väl sett denna videon vid detta laget med.
How Mesh Shaders Revolutionize PC & Xbox Graphics | Mesh Shaders Explained & Performance
https://www.youtube.com/watch?v=5g7XN7Xtaf4

För min del är ju non-RT prestanda av Högre vikt just nu så, msfs2020 är ju mer the new "can it run Crysis" än Cyberpunk, särskilt om ni säger att det är buggigt, inte köpt spelet själv.
Hoppas RT följer Moores LAW då, för det gör ju knappast ont i ögat om RT blev vardagsmat att driva.

Permalänk
Inaktiv
Skrivet av Ludde72:

Alla har väl sett denna videon vid detta laget med.
How Mesh Shaders Revolutionize PC & Xbox Graphics | Mesh Shaders Explained & Performance
https://www.youtube.com/watch?v=5g7XN7Xtaf4

För min del är ju non-RT prestanda av Högre vikt just nu så, msfs2020 är ju mer the new "can it run Crysis" än Cyberpunk, särskilt om ni säger att det är buggigt, inte köpt spelet själv.
Hoppas RT följer Moores LAW då, för det gör ju knappast ont i ögat om RT blev vardagsmat att driva.

Samma här, brydde mig inte om raytracingprestandan alls när jag köpte kort då spelen dels är för få men också att prestandan går från medioker till dålig. Förväntade mig mer med 3000-serien på det området faktiskt.

Hoppas dock att vi får se en snabb utvecklingstakt och implementering och att vi får se högre prestandautvekling när grafikkortsserierna börja stanna kvar så länge som de gör.

Permalänk
Medlem
Skrivet av UndaC:

AMD saknar tensor-kärnor för de-noise. (Nu verkar det dock inte användas i dagsläget förutom i Optix)

Fast de-noise med Tensor-kärnor används väl jättemycket för spelande av Nvidia, eller förstår jag dig fel?

Minecraft RTX med ett 2080, notera alla artefakter typiska för de-noising:

Permalänk
Konsolpleb 🕹
Skrivet av Sveklockarn:

Fast de-noise med Tensor-kärnor används väl jättemycket för spelande av Nvidia, eller förstår jag dig fel?

Minecraft RTX med ett 2080, notera alla artefakter typiska för de-noising:
https://www.youtube.com/watch?v=wBSSqQ_fQsY

Vad jag förstått kan man använda tensorkärnorna för de-noising och de är väldigt väl lämpade för det men de flesta (inga?) spel gör inte det utan kör istället de-noise via compute shaders. Kan dock vara ute o cykla här förstås

Hittar fan inte artikeln nu men var någon som visade tensorkärnornas belastning med RT aktiverat och de gick outnyttjade då. Medan i Optix så verkar de kicka in vid de-noise-steget som förväntat.

Får ta ett varv och se om jag bara drömt ihop allt det här.

Visa signatur

240p är livet

Permalänk
Datavetare
Skrivet av UndaC:

Vad jag förstått kan man använda tensorkärnorna för de-noising och de är väldigt väl lämpade för det men de flesta (inga?) spel gör inte det utan kör istället de-noise via compute shaders. Kan dock vara ute o cykla här förstås

Hittar fan inte artikeln nu men var någon som visade tensorkärnornas belastning med RT aktiverat och de gick outnyttjade då. Medan i Optix så verkar de kicka in vid de-noise-steget som förväntat.

Får ta ett varv och se om jag bara drömt ihop allt det här.

Har förstått det på samma sätt, d.v.s. denoise har typiskt körts på CUDA-kärnorna och enda som använder Tensor-kärnor för spel är DLSS.

Luriga är då: i den DLSS-plugin som nu finns för UE4, där man även kan göra denoise, hur är det med Tensor-kärnorna där?

Kan ju också så att när man kör DLSS finns inte kraft kvar i Tensor-kärnorna. I det läget har man valet att lägga mer jobb på Tensor-kärnorna, de blir då flaskhals och andra saker blir bara mer "idle" -> ingen förbättring (kan faktiskt bli långsammare då). Eller så har man helt enkelt inte hunnit fixa denoise via Tensor-kärnor än.

Fast undrar lite hur tungt denoise egentligen är. Spel ska i.o.f.s. göra det rätt många gånger per sekund, men tänker på att Intels Open Image Denoise verkar fungera riktigt bra (både prestanda och kvalité) och den körs på CPU m.h.a. AVX/AVX2/AVX-512, inte på GPU som OptiX. Fler renderingsprogram, inklusive Blender, har ju stöd för denoise både via OptiX och via Inte Open Image Denoise.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Konsolpleb 🕹
Skrivet av Yoshman:

Kan ju också så att när man kör DLSS finns inte kraft kvar i Tensor-kärnorna. I det läget har man valet att lägga mer jobb på Tensor-kärnorna, de blir då flaskhals och andra saker blir bara mer "idle" -> ingen förbättring (kan faktiskt bli långsammare då). Eller så har man helt enkelt inte hunnit fixa denoise via Tensor-kärnor än.

Fast undrar lite hur tungt denoise egentligen är. Spel ska i.o.f.s. göra det rätt många gånger per sekund, men tänker på att Intels Open Image Denoise verkar fungera riktigt bra (både prestanda och kvalité) och den körs på CPU m.h.a. AVX/AVX2/AVX-512, inte på GPU som OptiX. Fler renderingsprogram, inklusive Blender, har ju stöd för denoise både via OptiX och via Inte Open Image Denoise.

Det var min första tanke också. Att man avvarar tensor-kärnorna för DLSS.
Men beroende på hur komplext det är att implementera så borde man ju såklart kunna flytta från tensor till cuda om man kombinerar RT med DLSS.

Å andra sidan verkar just de-noise-fasen inte vara så överdrivet tungeriven. Nvidia visade lite frame time översikt från Metro när det använde DLSS 1.X. Det använde tensorkärnorna för de-noise men om man expanderar ut tidslinjen så ser det ju inte ut som om det är en enorm prestandaförbättring direkt: (om det nu är att lita på de här bilderna)

Dvs tensorkärnorna enligt nvidias översikt här verkar ju inte sköta de noise snabbare än cuda-kärnorna. De ”bara” flyttar bördan.

Visa signatur

240p är livet