Nvidia Maxwell saknar viktig finess i DirectX 12 uppger Oxide Games

Permalänk
Avstängd
Skrivet av Flopper:

Gör rätt från början,köp AMD Radeon

Som enligt dem själva har ett sämre stöd för DX12 än vad NVIDIA har...hur tänkte du nu?

http://www.sweclockers.com/nyhet/21013-amd-fullt-stod-for-dir...

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Skrivet av Rajat:

Som enligt dem själva har ett sämre stöd för DX12 än vad NVIDIA har...hur tänkte du nu?

http://www.sweclockers.com/nyhet/21013-amd-fullt-stod-for-dir...

Han kanske menade att man vet vad man får när man köper AMD.

Visa signatur

Intel i5 2500k @ 4.5 GHz
Sapphire Radeon R9 290 Tri-X
Nåt annat skit

Permalänk
Avstängd
Skrivet av baldViking:

Han kanske menade att man vet vad man får när man köper AMD.

Det vet du ifall du köper NVIDIA med, så det förklarar inget.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk

Jag hittade en intressant artikel på reddit om just Nvidia och Async Compute. [Analysis] Async Compute - is it true nVidia can't do it?

Visa signatur

Intel Core Ultra 7 265K | Asus ROG Strix Z890-E | Kingston 128GB DDR5 5200Mhz | Gigabyte RTX 4090 | LG OLED C4 | M.2 NVMe SSD 14TB | Corsair HX1500i | Lian Li Lancool III | Phanteks Glacier One 360D30 | OS Windows 11 Pro

Permalänk
Skrivet av SeF.Typh00n:

Ja, visst är det så. Men problemet jag ser är som jag skrev ovan. Vet vi det med säkerhet?

Jag menar, det är en spelutvecklare som haft långt samarbete med AMD i många år och som AMD prisar hårt.

Personligen skulle gärna vilja se andra källor på det också, innan man tar och byter sitt kort till Fury X

Ja precis ! Inget är ännu bekräftat. Det som är bekräftat är att det finns problem på båda sidorna.

Visa signatur

AMD och vänsterpolitik är för fattilappar

13700k@stock msi z690 pro 32gb dominator platinum rtx2080

Permalänk
Hjälpsam
Skrivet av Rajat:

Som enligt dem själva har ett sämre stöd för DX12 än vad NVIDIA har...hur tänkte du nu?

http://www.sweclockers.com/nyhet/21013-amd-fullt-stod-for-dir...

Var säger AMD att de har sämre stöd än Nvidia? de säger att ingen har fullt stöd.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Datavetare
Skrivet av Ratatosk:

Var säger AMD att de har sämre stöd än Nvidia? de säger att ingen har fullt stöd.

Vilket är fel då Skylake har fullt stöd

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

I korthet låter det som att AMD har separat hårdvara för graphics och compute så att de går att köra samtidigt.
Med andra ord, i DX11 och tidigare så har det funnits hårdvara som legat och sugit strömming utan att göra någon nytta men som nu med DX12 faktiskt går att använda.

Medans i nVidia's hårdvara så har man inte haft extra som legat och varit oanvänt.

Står det någonstans i DX12 spec att async compute kräver att graphics och compute kör parallelt, eller är det enbart en programmeringsmodell som gör vissa saker enklare?

#15642863 är hittills det vettigaste inlägget jag sett i tråden.

Permalänk
Medlem
Skrivet av Yoshman:

Vilket är fel då Skylake har fullt stöd

Fast minimum floating point precision går bara ner till 16 bit... Inte ner till 10 bit...

Permalänk
Datavetare
Skrivet av bonaqua:

I korthet låter det som att AMD har separat hårdvara för graphics och compute så att de går att köra samtidigt.
Med andra ord, i DX11 och tidigare så har det funnits hårdvara som legat och sugit strömming utan att göra någon nytta men som nu med DX12 faktiskt går att använda.

Medans i nVidia's hårdvara så har man inte haft extra som legat och varit oanvänt.

Står det någonstans i DX12 spec att async compute kräver att graphics och compute kör parallelt, eller är det enbart en programmeringsmodell som gör vissa saker enklare?

#15642863 är hittills det vettigaste inlägget jag sett i tråden.

Jag skulle också vilja veta om DX12 faktiskt säger något om detta. Vet att jag kommer gräva i detta själv när tids ges, vad jag hittade igår under en lite snabbare Google-övning var detta om "creating command lists" och detta om vilka typer som finns.

Här står det ingenting om att något av t.ex. typen D3D12_COMMAND_LIST_TYPE_COMPUTE ska kunna köras parallellt med saker av typen D3D12_COMMAND_LIST_TYPE_DIRECT. Vad man ska kunna göra är att köra saker asynkront/oberoende av varandra om de postas till olika typer av kommando-köer, det är inte samma sak som att det måste vara parallellt.

Folk blandar väldigt ofta ihop "concurrent programming" med "parallell programming", är en liknande sak här. Saker kan köras "concurrent" även om det bara finns en CPU-kärna och en CPU-tråd i systemet, det är ett sätt att resonera kring hur olika programflöden förhåller sig till varandra. Parallellprogrammering handlar däremot just om att effektivt köra saker på flera CPU-kärnor, det säger dock väldigt lite om hur man bör strukturera programmet.

Nu råkar det vara så att program som använder bra "concurrent programming" design tenderar att också kunna köras effektivt på flera kärnor, men finns definitivt undantag.

Tycker det ser ut att vara lite samma sak i DX12, med GCN är det fördelaktigt att köra jobb från olika köer parallellt då det passar mikroarkitekturen väldigt väl. Ser inget i MSDN dokumentationen som säger att det måste implementeras så. Det jag tror kan vara ett problem är att spelmotorer nog vill att saker som postas till "command queue" ska prioriteras över det som ligger i "compute/memcpy queues". Det är möjligt via HW med GCN tack vare ACE, ser inte att motsvarande HW stöd finns i Maxwell men fullt möjligt att man kan fixa ett sådant beteende via drivers.

En annan möjlighet här är att DX12 också tillåter något man kallar "multiadapter". Ett väldigt bra sätt att använda den iGPU som nästan alla har i sitt system skulle ju vara att köra "compute queue" saker som har lägre prio på iGPU och på så sätt säkerställa minimal latens i den GPU som jobbar med grafik!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Yoshman:

Vilket är fel då Skylake har fullt stöd

Jäkla Skylake!
Onekligen bra jobbat av Intel, de förtjänar en smörgåstårta.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Hjälpsam
Skrivet av bonaqua:

I korthet låter det som att AMD har separat hårdvara för graphics och compute så att de går att köra samtidigt.
Med andra ord, i DX11 och tidigare så har det funnits hårdvara som legat och sugit strömming utan att göra någon nytta men som nu med DX12 faktiskt går att använda.

Medans i nVidia's hårdvara så har man inte haft extra som legat och varit oanvänt.

Står det någonstans i DX12 spec att async compute kräver att graphics och compute kör parallelt, eller är det enbart en programmeringsmodell som gör vissa saker enklare?

#15642863 är hittills det vettigaste inlägget jag sett i tråden.

Bra sammanfattning!
Så har jag också uppfattat det.

Kraven tror jag säger "Async Computing" alltså inget om samtidig grafik och beräkning, annars skulle inte Fermi eller Kepler kvala in för DX12, de klarar inte beräkningsströmmar samtidigt som en grafikström.

Stora fördelen med att kunna detta är väl mest prestanda, bäst är om strömmarna kan köas upp hårvaran parallelt, alternativet är kanske att drivrutinerna köar upp strömmarna så att de pytsas ut till hårdvaran, lite pö om pö.

Lite på djupt vatten här, men det är så här hur jag uppfattat det.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av Trinitypcw:

Jag hittade en intressant artikel på reddit om just Nvidia och Async Compute. [Analysis] Async Compute - is it true nVidia can't do it?

TL;DR för dom som inte orkar läsa:

Maxwell (980Ti) är faktiskt snabbare än GCN (Fury X) på Async shaders.
Ett GTX960 visade sig också vara snabbare än Fury X vid mindre antal streams.

Detta är en ren benchmark dock och inte representativt för spelprestanda.

Permalänk
Medlem
Skrivet av Yoshman:

Detta uttalande är ungefär lika korrekt som att säga att det inte är "äkta" SMT om två saker som kör på olika CPU-trådar tar längre tid än att köra båda sakerna på två olika CPU-kärnor. Vinsten med SMT är att en fysisk kärna oftare kan utnyttjas närmare 100% av sin teoretiska kapacitet, maximal teoretisk kapacitet är dock den samma. En extra fysisk kärna ökar teoretisk prestanda, dock stannar prestanda per kärna vid samma nivå eller ofta så sjunker den något om man inte har i det närmaste obegränsat med oberoende saker att köra.

En stor fördel med något som ACE är att det ger GPU-delen en större möjlighet att använda tillgängliga resurser så nära 100% som möjligt, men precis som med SMT så ökar inte teoretisk kapacitet på något sätt. På pappret är AMDs GPUer definitivt starkare än Nvidias motsvarande modeller. En stor skillnad i mikroarkitektur mellan GCN och Maxwell är att den förra har en "bredare" design (kan köra fler saker parallellt) medan Maxwell är "smalare" men har mer resurser (och högre "IPC") per stream CPU.

Ta hur program schemaläggs. I GCN schemaläggs saker i form av en "wavefront" som är 64st strömmar som kör samma program men jobbar på olika delar av data (t.ex. ett pixel var). Motsvarande i Maxwell (och Fermi/Kepler) kallas "warp" och består av 32st strömmar. Har man data som inte går jämt upp med denna storlek som används inte GPU-resurserna optimalt, 64 ger mer "spill" än 32.

Ovanpå detta så kan Maxwell ha upp till 64 warps per associerade med en SMM, varav 4 av dessa är "aktiva" och någon av dessa 4 är den som körs varje cykel. Detta är nog det närmaste man kommer ACE i SMM/SMX: det är upp till 64 warps i "kön" varav 4st kan vara aktiva (2st i Fermi).

Motsvarande i GCN är att varje CU (compute-unit) kan ha upp till 40st wavefronts "aktiva" (är en CU per 64 streamprocessorer), dessa wavefronts plockas från olika jobbköer, bl.a. ACE. Notera att det är väldigt mycket fler "aktiva" minsta schemaläggningsmässigt minsta enheter i CGN (40 mot 4). Nu är denna jämförelse fortfarande ganska sned då en CU inte är direkt jämförbar med en SMX/SMM i hur den mappar till resurser och trådar, på det stora hela kan man ändå visualisera det som att GCN har fler "hypertrådar" per fysisk kärna än Maxwell/Kepler. Maxwell/Kepler har i stället mer resurser per tråd för att på så sätt undvika "stalls".

Vinsten med GCN-designen är att man normalt sett får ut högre teoretisk kapacitet med en viss transistorbudget. Vinsten med Maxwell-designen är att det är lättare att nå en viss nivå av teoretisk kapacitet, framförallt om det finns begränsad mängd jobb som kan köras oberoende av varandra.

Summa summarum av detta är att GCN är i grunden en enklare design sett per "streamprocessor", den behöver fler "hypertrådar" per fysisk kärna för att nå upp till sin teoretiska kapacitet jämfört med Maxwell. Se det lite som FX-8350 vs i5-2500, stora skillnaden här är att grafik är ett problem som har massor med potentiell parallellism så antal fall när man har nytta av många men svaga trådar är långt fler än i en CPU (som mer behöver låg latens -> hög enkeltrådprestanda).

För DX11, som för att vara ett modernt grafik API är relativ seriellt i sin design, så är Kepler/Maxwell en bättre design då dessa GPUer kommer i långt fler fall nå mycket närmare sin teoretiska kapacitet än vad GCN GPUerna kan. I DX12 kan GCN dra nytta av att ha fler "hypertrådar" (för att använda en term många har en känsla för vad den betyder, är tekniskt sett fel term), i detta fall i form av att kunna lägga ut massor med arbete som kan utföras oberoende av varandra via ACE och GPUn har nu mycket mer program att lägga ut på de resurser som av olika anledningar inte används fullt ut. Nvidia kommer se en mindre effekt av DX12 då de redan har en högre utnyttjandegrad i DX11.

Är designen av GCN och dess ACE som får mig tro att något väldigt likt DX12 var redan planerat för Win8. Varför designade annars AMD en GPU som lanserades år 2012 som de måste ha vetat aldrig skulle kunna presterar optimalt med ett API som DX11? Även Fermi innehåller saker som först i DX12 är användbart, Nvidia tog bort dessa i Kepler då de var meningslösa i DX11 och bidrog till högre strömförbrukning.

Edit: råkade ut för ett "interrupt" när jag skrev detta lilla inlägg, så lyckas glömma halva förklaringen om mikroarkitektur. Och sorry för wall-of-text, det är i alla fall kortare än att plöja alla whitepaper om GPU-arkitekturer

Edit2: försökte förenkla lite mer

Nvidia har inte 31 köer, man kan köra 32 (varav 31 verkar direkt åtkomliga via DX12) program samtidigt. Detta är inte samma sak som ACE, men DX12 säger inte "det ska fungera som ACE i GCN" utan vad DX12 säger är att man ska kunna definiera separata köer som kan utföra kommandon ("command queue"), beräkningar ("compute queue") samt kopiering av data ("copy/DMA queue"). På GCN är ACE en väldigt naturligt mappning, det enda DX12 dock kräver är att den implementation av DX12 som används utför dessa operationer samt att dessa köer kan användas oberoende från varandra, potentiellt från olika CPU-kärnor.

Min gissning här är att det inte finns en trivial ett-till-ett mappning av detta till Maxwell/Kepler (det finns i Tesla-korten då dessa har något Nvidia kallar Hyper-Q, men det finns inte i konsumentkorten). I slutändan kvittar det totalt om något utförs i GPUn, i CPUn eller en kombination av dessa, huvudsaken är att uppgiften utförs på rätt sätt med hög effektivitet.

Här tror jag Nvidia kommer behöva göra mer arbete i drivers jämfört med AMD. Man har delar av stödet i GPUn då det är möjligt att köra upp till 32 "program" samtidigt, men gissar att man måste göra prioritering av "program" och liknande i drivers -> Nvidia kommer behöva en mer avancerad driver jämfört med AMD. Om detta är fallet kommer det ta mer tid innan Nvidia har riktigt bra DX12 drivers, å andra sidan har man gång på gång visat att man är väldigt duktig på just programutvecklingsbiten (Nvidia har väsentligt många fler ingenjörer som jobbar med programvara jämfört med maskinvara, AMD verkar ha en motsatt fördelning).

Extremt bra skrivet och sammanfattat.

Grymt intressant att läsa, och väldigt smidigt med en sådan kompakt sammanställning (hade inte haft tid att göra det grundliga jobb du gjort med att läsa på här). Yoshman; du är utan tvekan Swecs största tillgång.

Nu förstår jag att du garanterat är extremt upptagen med ditt normala jobb, och att även om detta kanske är strakt relaterat så är det förmodligen ett intresse lite på sidan för nöjes skull (sådant som jag själv tycker är kul när man kan välja vad man vill läsa in sig på). Hade du någon gång haft tid så skulle du blivit en enormt stor redaktionell tillgång till en sajt som SweC om du haft tid/intresse för det.

Även om så aldrig sker så ser jag alltid fram enormt emot att läsa dina lagom djupa och väl förklarande (och för mig som inte är så insatt längre pga bla tid och annat, väldigt pedagogiskt bra förenklade) beskrivningar av objektiv fakta bakom intressanta tekniska lösningar. Rent nöje och grym underhållning för mig (som likt många på SweC fortfarande är en extremt nyfiken nörd längst inne).

Allt detta sagt så vill jag bara komma med några rena realpolitiska/taktiska spekulationer ifrån min sida som knyter an till det som du själv redan är inne på:

Har inga absoluta belägg för detta, men har precis som du fått till mig att DX12 (eller något liknande) troligen var på gång till redan första releasen/versionen av W8, men togs bort ifrån scopet under utvecklingen för att läggas i ett separat projekt och långt mycket senare W8-release/uppdatering. AMD (och även till viss del Nvidia) hade självklart sedan många år tillbaka fått förhandsinformation om att detta var på gång för W8.0, och därmed satsat resurser på att utveckla sin hårdvara i den riktningen. När DX12 (eller motsvarande) var "out of scope" för W8.0 så hade AMD, som satsat störst på detta med GCN, hamnat i en besvärlig situation. För att sätta press på Microsoft så beslöt de att ta fram ett eget alternativt API. För att göra detta till en hyfsat låg kostnad så samarbetade de med sin tekniskt nära partner i Stockholm, DICE. De valde att ta fram ett API inte allt för långt ifrån senaste XBox-API (som var betydligt mer paralleliserat och lite modernare än sin kusin på Windows-PC) som redan var hyfsat optimerat för GCN (som XB1 kör på). Detta var det som de sedermera döpte till Mantle. De hade nog aldrig tanken på att det någonsin skulle ta över och dominera marknaden, men det fick den hävstång och effekt som det avsåg. Detta satte fart och press på Microsoft att eskalera deras DX12-projekt, och se till att de prioriterade detta som en del av en planerad W8-uppdateringen (som sedermera blev det som vi känner som W10 idag, omdöpt av marknadsskäl då namnet W8 fått så dåligt rykte på marknaden). Önskad effekt uppnådd av AMD. Som en extra bonus så fick både AMD och DICE ytterligare testat och utvecklat bra mjukvara och drivrutiner för denna nyare typ av gränssnitt på Win/PC. Förutom denna värdefulla erfarenhet, och dess uppnådda press på Microsoft, så fick allt arbete de lagt ner även en direkt nytta i form av Vulcan i kommande versioner av OpenGL. Mycket bra PR och Goodwill för AMD, och dessutom en värdefull standard för att hålla Microsoft och deras dominans med DX/Windows lite i schack även framgent. Nu kan dock AMD äntligen "cash in" på deras långsiktiga arbete med GCN och Mantle genom att få nytta av detta i nya DX12-titlar och prestandamätningar i media - vilket vi nu ser resultatet av i artiklar som denna på SweC.

Men detta var ett lite OT-sidospår (utan något direkt värde i sig för ämnet för denna tråden), så skall nog stoppa där.

Ser hur som helst alltid fram emot alla dina välgrundade och elegant framställda tekniska förklaringar i aktuella ämnen.

Ändrat Vulcan till Mantle (blev lite snabbt, men fel)
Visa signatur

macOS: Mac mini [M4 Pro 14-core/24GB/1TB/10GbE], MacBook Air 13" [M1/16GB/256GB], MacBook Pro 16" [M2/32GB/512GB]
Windows: Microsoft Surface Pro 11 [Snapdragon X Elite/16GB/1TB/OLED], Microsoft Surface Laptop 7 13" [Snapdragon X Plus/16GB/512GB], HP Omnibook X 14" [Snapdragon X Elite/16GB/1TB], HP OmniBook Ultra 14" [Ryzen AI 9 HX 375/32GB/1TB]
iOS: iPad Mini [128GB/LTE], iPad Pro 12,9" [M1/512GB/LTE], iPhone SE3 [128GB], Apple Watch Series 10 46mm [LTE]
HT: LG 77" OLED C2 [OLED77C25LB], Intel NUC [Core i5/8GB/256GB]

Permalänk
Medlem
Skrivet av Rajat:

Som enligt dem själva har ett sämre stöd för DX12 än vad NVIDIA har...hur tänkte du nu?

http://www.sweclockers.com/nyhet/21013-amd-fullt-stod-for-dir...

Jasså är det vad som står när man läser med gröna glasögon? Vad jag kan se så står det att korten har stöd för olika funktioner och att det är en gissningslek att försöka klura ut vilka grafikprocessorer som i praktiken tjänar mest på Microsofts nya grafikgränssnitt. Dock så har AMD korten stöd för Async Compute vilket i Ashes of the Singularity har visat sig vara en stor fördel då Geforcekorten får långt ifrån lika stor prestandaförbättring som Radeonkorten jämfört med Directx 11.

Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Avstängd
Skrivet av Delerium:

Jasså är det vad som står när man läser med gröna glasögon? Vad jag kan se så står det att korten har stöd för olika funktioner och att det är en gissningslek att försöka klura ut vilka grafikprocessorer som i praktiken tjänar mest på Microsofts nya grafikgränssnitt. Dock så har AMD korten stöd för Async Compute vilket i Ashes of the Singularity har visat sig vara en stor fördel då Geforcekorten får långt ifrån lika stor prestandaförbättring som Radeonkorten jämfört med Directx 11.

Och vet du vad, Maxwell har OXÅ stöd för Async Compute, vad sa du nu?

Och läser du artikeln så står det så här:

"Situationen är dock betydligt mer komplicerad än så. DirectX 12 innehåller både obligatoriska och valfria funktioner, som även kan stödjas i varierande utsträckning. Microsoft specificerar två uppsättningar minsta gemensamma nämnare under samlingsnamnen Feature Level 12_0 och 12_1.

Den senare är den mer kompletta och i dagsläget är det enbart Intel Skylake och Nvidia Maxwell (GM2xx) som formellt uppfyller kraven. AMD:s senaste grafikprocessorer med arkitekturen Graphics Core Next, däribland Radeon R9 Fury-serien (Fiji), stannar vid Feature Level 12_0."

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem

@Rajat:

Det sägs att nVidia pushade MS till att skapa FL12_1 för att matcha AMD. Vad jag har förstått kan AMD hantera FL12_1 på mjukvara och ändå klara sin uppgift pga ACE. Det är inte ens säkert AMD behöver FL12_1 i för nästa generation.

Permalänk
Avstängd
Skrivet av dahippo:

@Rajat:

Det sägs att nVidia pushade MS till att skapa FL12_1 för att matcha AMD. Vad jag har förstått kan AMD hantera FL12_1 på mjukvara och ändå klara sin uppgift pga ACE. Det är inte ens säkert AMD behöver FL12_1 i för nästa generation.

Och där trillade vi in på rykten igen...vad är det som är så mycket roligare med att tro på rykten än på fakta?

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Skrivet av Rajat:

Och vet du vad, Maxwell har OXÅ stöd för Async Compute, vad sa du nu?

Och läser du artikeln så står det så här:

"Situationen är dock betydligt mer komplicerad än så. DirectX 12 innehåller både obligatoriska och valfria funktioner, som även kan stödjas i varierande utsträckning. Microsoft specificerar två uppsättningar minsta gemensamma nämnare under samlingsnamnen Feature Level 12_0 och 12_1.

Den senare är den mer kompletta och i dagsläget är det enbart Intel Skylake och Nvidia Maxwell (GM2xx) som formellt uppfyller kraven. AMD:s senaste grafikprocessorer med arkitekturen Graphics Core Next, däribland Radeon R9 Fury-serien (Fiji), stannar vid Feature Level 12_0."

Enligt Oxide så rapporterade drivrutinen stöd för async shaders men presterade så dåligt att Nvidia bad de att stänga av det. Så troligtvis saknas stöd i hårdvaran.

Sen så glömde du visst en rad.

"Därutöver finns sammanlagt nio kapacitetsnivåer (tiers), där AMD GCN 1.2 å andra sidan klarar mer än huvudkonkurrenten Nvidia Maxwell."

Med andra ord har varken de nyaste geforcekorten eller radeonkorten fullt stöd för Direct X 12. Men ännu så länge är det radeonkorten som har påvisat bäst prestandaskalning. Återstår att se vad som händer när fler titlar med stöd för Direct X 12 släpps.

Visa signatur

ASUS K7M, AMD Athlon 1000 MHz Slot A, 3dfx Voodoo5 5500 64 MB AGP, 512 MB SDRAM @ CL 2-2-2-5, Cooler Master ATC-100-SX Aluminum Mid Tower.

Permalänk
Avstängd
Skrivet av Delerium:

Enligt Oxide så rapporterade drivrutinen stöd för async shaders men presterade så dåligt att Nvidia bad de att stänga av det. Så troligtvis saknas stöd i hårdvaran.

Sen så glömde du visst en rad.

"Därutöver finns sammanlagt nio kapacitetsnivåer (tiers), där AMD GCN 1.2 å andra sidan klarar mer än huvudkonkurrenten Nvidia Maxwell."

Med andra ord har varken de nyaste geforcekorten eller radeonkorten fullt stöd för Direct X 12. Men ännu så länge är det radeonkorten som har påvisat bäst prestandaskalning. Återstår att se vad som händer när fler titlar med stöd för Direct X 12 släpps.

Och du glömmer att spelet bara är en Alpha fortfarande och långt ifrån färdigt, så vad Oxide säger har inte någon som helst betydelse då det lika gärna kan ligga i deras kod.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Hjälpsam
Skrivet av Rajat:

Och du glömmer att spelet bara är en Alpha fortfarande och långt ifrån färdigt, så vad Oxide säger har inte någon som helst betydelse då det lika gärna kan ligga i deras kod.

Oxide tog upp saken med Nvidia och Nvida bad Oxide att ta bort funktionen, Nvidia sa alltså inte åt Oxide att se över sin kod.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem

@Rajat:

Du kan börja med att läsa Beyond3D så får du mycket föklarat. Där är mycket professionellt folk som förklarar det mesta som försigår inom grafik. Men visst är det som du säger mycket rykten lite fakta. Enda faktan är 2 obskura tester som inte säger något och att FL12_1 måste vara det bästa.

Permalänk
Avstängd
Skrivet av Ratatosk:

Oxide tog upp saken med Nvidia och Nvida bad Oxide att ta bort funktionen, Nvidia sa alltså inte åt Oxide att se över sin kod.

Att de talade om för dem att ta bort funktionen kan bero på mycket, troligtvis att det inte fungerade optimalt i det stadiet spelet befinner sig i just nu och du har inte en aning om ifall NVIDIA sa åt dem att se över sin kod, eller var du där? Hela denna nyhet bygger på rykten.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Hjälpsam
Skrivet av Rajat:

Att de talade om för dem att ta bort funktionen kan bero på mycket, troligtvis att det inte fungerade optimalt i det stadiet spelet befinner sig i just nu och du har inte en aning om ifall NVIDIA sa åt dem att se över sin kod, eller var du där? Hela denna nyhet bygger på rykten.

Klart jag var där, du var ju också där, såg du mig inte?

Nej den bygger inte på rykten den bygger på betydligt mer än så, där bland annat ett uttalande från en utvecklare från Oxide väger tungt.
Men det spelar nog ingen roll för dig, du har verkar ha bestämt dig från att bortse från allt som talar för att detta stämmer.
Det känns inte som att det lönar sig att försöka argumentera med dig, jag har viktigare saker att göra, så jag låter bli.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Avstängd
Skrivet av Ratatosk:

Klart jag var där, du var ju också där, såg du mig inte?

Nej den bygger inte på rykten den bygger på betydligt mer än så, där bland annat ett uttalande från en utvecklare från Oxide väger tungt.
Men det spelar nog ingen roll för dig, du har verkar ha bestämt dig från att bortse från allt som talar för att detta stämmer.
Det känns inte som att det lönar sig att försöka argumentera med dig, jag har viktigare saker att göra, så jag låter bli.

Ska jag bygga hela diskussionen mellan NVIDIA och Oxide på en enda fras som står i en nyhet så är det bara ett rykte, vi vet inte helheten till varför, vi kan bara spekulera som alla andra och det är så rykten uppstår.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Hjälpsam
Skrivet av Rajat:

Ska jag bygga hela diskussionen mellan NVIDIA och Oxide på en enda fras som står i en nyhet så är det bara ett rykte, vi vet inte helheten till varför, vi kan bara spekulera som alla andra och det är så rykten uppstår.

Hade inte tänkt svara men.
Om du ser en nyhet som du tycker är lite tunn, varför inte klicka på länkarna som den refererar till.
tex denna.
http://www.overclock.net/t/1569897/various-ashes-of-the-singu...
Där har du en diskussion på 179 sidor om detta, det är något mer än en "enda fras".
Här har du vad utvecklaren från Oxide skrev.

Citat:

Wow, there are lots of posts here, so I'll only respond to the last one. The interest in this subject is higher then we thought. The primary evolution of the benchmark is for our own internal testing, so it's pretty important that it be representative of the gameplay. To keep things clean, I'm not going to make very many comments on the concept of bias and fairness, as it can completely go down a rat hole.

Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD wink.gif As you've pointed out, there does exist a marketing agreement between Stardock (our publisher) for Ashes with AMD. But this is typical of almost every major PC game I've ever worked on (Civ 5 had a marketing agreement with NVidia, for example). Without getting into the specifics, I believe the primary goal of AMD is to promote D3D12 titles as they have also lined up a few other D3D12 games.

If you use this metric, however, given Nvidia's promotions with Unreal (and integration with Gameworks) you'd have to say that every Unreal game is biased, not to mention virtually every game that's commonly used as a benchmark since most of them have a promotion agreement with someone. Certainly, one might argue that Unreal being an engine with many titles should give it particular weight, and I wouldn't disagree. However, Ashes is not the only game being developed with Nitrous. It is also being used in several additional titles right now, the only announced one being the Star Control reboot. (Which I am super excited about! But that's a completely other topic wink.gif).

Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only 'vendor' specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that. The only other thing that is different between them is that Nvidia does fall into Tier 2 class binding hardware instead of Tier 3 like AMD which requires a little bit more CPU overhead in D3D12, but I don't think it ended up being very significant. This isn't a vendor specific path, as it's responding to capabilities the driver reports.

From our perspective, one of the surprising things about the results is just how good Nvidia's DX11 perf is. But that's a very recent development, with huge CPU perf improvements over the last month. Still, DX12 CPU overhead is still far far better on Nvidia, and we haven't even tuned it as much as DX11. The other surprise is that of the min frame times having the 290X beat out the 980 Ti (as reported on Ars Techinica). Unlike DX11, minimum frame times are mostly an application controlled feature so I was expecting it to be close to identical. This would appear to be GPU side variance, rather then software variance. We'll have to dig into this one.

I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.

Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don't think Unreal titles will show this very much though, so likely we'll have to wait to see. Has anyone profiled Ark yet?

In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)

--
P.S. There is no war of words between us and Nvidia. Nvidia made some incorrect statements, and at this point they will not dispute our position if you ask their PR. That is, they are not disputing anything in our blog. I believe the initial confusion was because Nvidia PR was putting pressure on us to disable certain settings in the benchmark, when we refused, I think they took it a little too personally.

Dold text

Du verkar se saken i svart och vitt, vi vet inte till hundra procent om detta stämmer, eller om det går att fixa via en ny drivrutin men nog finns det fog att utreda vidare och kräva ett klargörande.
Att man hårdbevaker tillverkarna är inget vi konsumenter förlorar på, att det kan vara obekvämt för tillverkarna är inget vi behöver ta hänsyn till, det är våra intressen som vi skall försvara inte deras.

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem
Skrivet av Delerium:

Enligt Oxide så rapporterade drivrutinen stöd för async shaders men presterade så dåligt att Nvidia bad de att stänga av det. Så troligtvis saknas stöd i hårdvaran.

Och enligt den rena benchmarken som postades innan så visade det på att Nvidia har stöd för async shaders och att dom dessutom är snabbare än AMD på det (med GTX960 som slår Fury X vid mindre antal streams).

Så vem ska vi tro på?

Vi behöver definitivt mer benchmarks och mer tester.

Permalänk
Medlem
Skrivet av baldViking:

Han kanske menade att man vet vad man får när man köper AMD.

Skrivet av Rajat:

Det vet du ifall du köper NVIDIA med, så det förklarar inget.

Tjaa.. Fast gör man verkligen det? Jag var rätt så sugen på att köpa ett GTX 970, och hade jag gjort det hade jag definitivt inte vetat vad jag fått. Den enda anledningen jag inte köpte ett var för att min bror avrådde mig. Han ansåg att det såg ut att vara lite "för bra för att vara sant"; och det var det.

Om man köper Nvidia känns det otroligt ofta som grisen i säcken. Använder sig mitt GTX 650ti av asynkron minnesdesign? Är mitt GT 630 ett 96 Cuda Core Fermi eller ett 384 Cuda Core Kepler? Har mitt GTX 970 verkligen 256 bitar minnesbuss? Det finns väldigt många exempel där Nvidia undanhåller information eller dementerar saker som visar sig vara riktiga (Bumpgate existerar inte).

Man vet väl "ungefär" vad man får då man köper båda märkena, men nyligen har Nvidia böjt lite väl mycket på sanningen och rent ut sagt jävlats en del. Jag skulle säga att just nu, under år 2015, så vet man mer vad man får då man köper AMD. Detta är såklart min personliga åsikt, och jag VET att din kommer att skilja..

Permalänk
Medlem
Skrivet av murklor:

Och enligt den rena benchmarken som postades innan så visade det på att Nvidia har stöd för async shaders och att dom dessutom är snabbare än AMD på det (med GTX960 som slår Fury X vid mindre antal streams).

Så vem ska vi tro på?

Vi behöver definitivt mer benchmarks och mer tester.

Har jag inte fel har Nvidia bara 32 stycken och endast 31 kan användas samtidigt. Då får inte gpu:n ha annan belastning heller.

AMD klarar 105 stycken eller om det var mer.

Men detta är vad jag läst i forumet och källan till påståendet vet jag inte om det är äkta.

Skrivet av Fluffarn:

Tjaa.. Fast gör man verkligen det? Jag var rätt så sugen på att köpa ett GTX 970, och hade jag gjort det hade jag definitivt inte vetat vad jag fått. Den enda anledningen jag inte köpte ett var för att min bror avrådde mig. Han ansåg att det såg ut att vara lite "för bra för att vara sant"; och det var det.

Om man köper Nvidia känns det otroligt ofta som grisen i säcken. Använder sig mitt GTX 650ti av asynkron minnesdesign? Är mitt GT 630 ett 96 Cuda Core Fermi eller ett 384 Cuda Core Kepler? Har mitt GTX 970 verkligen 256 bitar minnesbuss? Det finns väldigt många exempel där Nvidia undanhåller information eller dementerar saker som visar sig vara riktiga (Bumpgate existerar inte).

Man vet väl "ungefär" vad man får då man köper båda märkena, men nyligen har Nvidia böjt lite väl mycket på sanningen och rent ut sagt jävlats en del. Jag skulle säga att just nu, under år 2015, så vet man mer vad man får då man köper AMD. Detta är såklart min personliga åsikt, och jag VET att din kommer att skilja..

Håller med, Nvidia har varit fula förra (inte lika mycket har AMD gjort det).

Men nu när dom äger marknaden, beter dom sig som svin och bryr sig inte om kunderna. Kommer troligen fungera ett tag tills kunderna lessnar eller Nvidia inser själva sitt misstag.

Just nu hyllar vissa Nvidia oavsett om det är bra eller dåligt.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Hedersmedlem

Vill man kan man gå tillbaka tolv år och se hur det såg ut med nVidias påståenden om NV30 och deras marknadsföring inför DX9 som visade sig helt falsk, till den grad att de kände sig tvingade att börja fuska i 3Dmark (ledande testet då) eftersom de satsat på fel saker inför generationsbytet och fick panik.

Jag länkar en rätt bra sammanfattning som finns kvar på nätet: http://techreport.com/review/4966/nvidia-geforce-fx-5800-ultr...

Det var för övrigt nVidias lögner då som gjort att jag köpt ATi/AMD ända sedan dess, med ett undantag, GTX8800. Varför ska jag stötta ett företag som gör precis vad som helst för att sälja? Vill vi verkligen stötta ett sådant beteende, gång på gång?

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro