DirectX 12 med Ashes of the Singularity

Permalänk
Skrivet av Jonathanknet:

Kan det vara därför som gears of war rekommenderar 980ti eller 390x för 4k?
Spelet sägs ha async

Dock lär inte överdrivet mycket hända nvidias försäljning ändå då dom har mycket bättre marknadsföring än amd.
Fråga bara nån random så kommer han garanterat säga.
"geforce är bäst"

Även om det skulle vara så att nuvarande AMD kort generellt skulle prestera bättre än nuvarande nVidia kort i DX12 så väntar ju alla på de nya generationerna grafikkort som kommer snart och då kan det vara annorlunda än för nuvarande generationer.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Medlem

En DX12 titel utan Nvidias Gameworks visar klart och tydligt hur tunga AMD's kort egentligen är när Nvidia inte gått in i produktionen av spelet och gjort allt för att sabba.

5fps till 980 TI
Tror jag gav 2850kr för mitt 390 på Black friday, Dubbla pengen för 5 extra FPS känns som en stor blåsning ändå.

Visa signatur

CPU: 5800x3d
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av trickeh2k:

Varför är det BRA? Själv tycker jag det är sämst med spel som ska favorisera en viss tillverkare. Sjukt tråkigt när man sitter på ett AMD-kort och ens kommande favoritspel är optimerat för Nvidia t ex. Här har konsumenten investerat dyra pengar för att få ett prestandakort och så fungerar det inte fullt ut i flertalet titlar.

Den här lobbyverksamheten som även återfinns med konsolexklusiva DLC/Banor etc, etc tycker jag är ett jävla aber...

Skrivet av Friterad:

Ja det är ju dåligt när Nvidia får fördel i spel, varför gäller inte samma sak tvärtom? Påminner lite om hur folk tyckte så illa om Apple för dom stämnde hit och dit, men lyfta inte ett finger när Samsung gjorde exakt samma sak. Ganska självklart varför man gör det, har man ett AMD kort vill man att det ska prestera bäst, har man Nvidia vill man att det ska prestera bäst. Dock inte lika självklart varför man har känslor för själva företaget i sig.

Skrivet av Foxmaner:

Lungt. Nvidia lägger bara in gameworks så kommer dom nog före amd........

Skrivet av jesusbarnet:

Den största skillnaden är att AMD inte optimerar sina drivrutiner så att gamla kort presterar sämre i nya spel. Som Nvidia tycks göra.
Gameworks

En mycket intressant video som även Sweclockers borde kolla om det verkligen stämmer att Nvidia 700 började prestera sämre i titlar med nya drivrutiner efter att 900 serien släpptes

Visa signatur

Hårdvaru och mjukvaru intresserad

Permalänk
Avstängd

Haha ska bli roligt hur lång tid det tar innan nästa nvidia driver klipper ner Explicit Multiadapter som dom gjorde med dom fristånde physx korten från ageia en gång i tiden:(

Visa signatur

FD refine S Msi x99s sli plus 5930k@4400mhz NH-D14 Asus GTX 980 Strix SLI 16gb gskill ripjaws ddr4 3ghz Os Samsung 950 pro 512gb NVME Spel samsung 840/850 evo/pro Win 10 Pro Corsair Ax850 Gold Asus PG278Q Rog Swift

Permalänk
Medlem

Oj oj oj! Riktigt roligt att se! Fyfan vad Nvidia är kass, dom kommer gå i graven. (Bytte bara ut AMD till Nvidia) Kul att se ett 7970 prestera mer än 100% bättte än ett 680. Som det konkurrerade med Vad hände där?

Visa signatur

Ryzen 5 5600, Geforce 1080

Permalänk
Medlem
Skrivet av Friterad:

Verkligen? Missar du alltså alla inläggen som hejar på AMD? Hur kommer det sig tro?

Inläggen? Jag pratar om Sweclockers recensioner. I inläggen är det väl ungefär 50/50 onyanserad fanatism från båda hållen. Jag pratar enbart om hur ett övertag beskrivs olika när det kommer från AMD respektive Nvidia.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Wyver:

Den största skillnaden är att AMD inte optimerar sina drivrutiner så att gamla kort presterar sämre i nya spel. Som Nvidia tycks göra.
Gameworks

En mycket intressant video aom äve Sweclockers borde kolla om det verkligen stämmer att Nvidia 700 började prestera sämre i titlar med nya drivrutiner efter att 900 serien släpptes

På vilket sätt hade det med mitt inlägg att göra?

Permalänk
Medlem

oj! AMD gör comeback Blir verkligen intressant med nästa gen grafikkort och DX12

Visa signatur

Gaming: i7 13700k | 3080 Tuf oc | 32gb | 2TB nvme | Evga 1000 P2

HTPC: 3400g | 16gb | 250gb nvme

NAS: 12600k | 32gb | 512gb ssd | 2x1TB nvme | 3x16TB exos

Permalänk
Medlem

Sitter och snickrar ihop ny, minde, dator och Explicit Multiadapter är hela anledningen till att jag ska ha m-atx istället för m-itx. Tyvärr är det stor brist på små chassin med bra ventliation som inte ser ut som fan.

Hoppas verkligen att den funktionen får fäste...överväger stödköp av Ashes of Singularity bara för att dom pushar för detta.

Permalänk
Medlem

@Friterad:

Men det handlar om DX12, möjligheten att köra compute och grafik parallelt. Ta reda på vad det handlar om istället för att slå ner på det.

Permalänk
Medlem
Skrivet av Ozzed:

Inläggen? Jag pratar om Sweclockers recensioner. I inläggen är det väl ungefär 50/50 onyanserad fanatism från båda hållen. Jag pratar enbart om hur ett övertag beskrivs olika när det kommer från AMD respektive Nvidia.

Fåniga konspirationsteorier med andra ord. Det är en självklarhet att man inte ska dra slutsatser utefter hur DX12 kommer prestera generellt för dom olika korten baserat på ett enda spel som dessutom är det första med DX12. Har ingenting med AMD/Nvidia att göra

Permalänk
Medlem
Skrivet av dahippo:

@Friterad:

Men det handlar om DX12, möjligheten att köra compute och grafik parallelt. Ta reda på vad det handlar om istället för att slå ner på det.

Citera gärna så jag vet vad du svarar på mer specifikt

Permalänk
Medlem

@Friterad:

Enkelt svar. Kör du compute och grafik parallelt förlorar nvidia i jämförbar klass. Oberoende vilken utvecklare som kör grunden för DX12. Du kan dock köra DX11 med DX12 features som Just Cause 3.

Permalänk
Medlem
Skrivet av Viochee:

Ja, Nvidia kort lär ju prestera sämre i DX12 än DX11...
något måste ha gått fel när det är så, varför ens göra DX12 driver om det är sämre prestanda? nä något är riktigt skumt

nä nu ska jag vara glad för att AMD får lite hype, hoppas de är bra eller bättre än Nvidia så får vi alla bättre priser

Som jag förstått det hela så är det att Nvidias nuvarande kort saknar/inte stödjer fullt ut Asynchronous Compute-funktionen i DX12 vilket detta spel använder.

Visa signatur

AMD 9800X3D ▪ MSI B850 Tomahawk Max ▪ Corsair 32GB 6000MT/s CL28 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define North XL ▪ Aorus AD27QD + LG 27GL850

Permalänk
Medlem
Skrivet av enbom:

Som jag förstått det hela så är det att Nvidias nuvarande kort saknar/inte stödjer fullt ut Asynchronous Compute-funktionen i DX12 vilket detta spel använder.

Jo helt klart, men vad är det som säger att alla spel kommer köra hårt på det...

som sagt kul att AMD får vinna för en gång skull

Permalänk
Medlem

Gooooo AMD!!!

Vore väldigt skoj om denna trend håller i sig även i andra framtida titlar.

Permalänk
Medlem
Skrivet av Viochee:

Jo helt klart, men vad är det som säger att alla spel kommer köra hårt på det...

som sagt kul att AMD får vinna för en gång skull

inget men det var ju svar på din fråga varför det gick sämre för det gröna i detta fal

Visa signatur

Thanks for the party, the house, the girls, the press, and..
Oh yeah, doing my laundry

Permalänk
Hjälpsam

Även om async compute förklarar en del av skillnaden, förklarar den absolut inte allt.
En stor del av skillnaden är helt enkelt DX12 och detta är säkerligen orsaken till att vi ännu inte sett något Nvidia-sponsrat spel utvecklas för DX12.
http://wccftech.com/ark-survival-evolved-dx12-patch-performan...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inaktiv
Skrivet av Friterad:

Du menar hur dåligt det presterar i DX12 i Ashes of the Singularity? Är väl en gammal nyhet att spelet utnyttjar funktionen Asynchronous Compute som tydligen GCN har ett övertag i. Dock är det ju dålig marknadsföring som du sa att påstå att korten "fullt" stödjer DX12 när antagligen inga kort idag gör det.

Nvidia tycks hitills inte ha lyckats få ut så mycket prestanda i DirectX 12 jämfört med i DX11. Återstår (som vanligt) att se hur det ser ut i andra titlar men de nya API'erna kommer med stor sannorlikhet gynna AMD's kort. Sedan kan man ju anta att AMD fått en hel del erfarenhet med Close to Metal API'er då de i dagsläget har grafiklösningar i alla tre konsoller. De vet nog riktigt väl hur GCN fungerar med olika typer av API'er. Microsoft och Sony kör ju båda för PC ovanliga sådanna men de får också en bra bild över hur produkterna faktiskt fungerar. Minns jag inte helt fel så är det ett HD 7870 som sitter i PS4. En idag smått antik GPU men som representerar GCN väl.

Sedan verkar ju AMD ha pushat på Microsoft en hel del med DirectX 12, erfarenheterna och lanseringen av Mantle, Mantles vidarearbetning till Vulkan.

Hur det ser ut för Nvidia har jag inte fått någon direkt uppfattning om. Det mesta jag noterat är att det verkar se antingen okänt eller dåligt ut iallafall med dagens lanserade kort. Async lär vi nog inte få se i alla titlar, speciellt som tidigare nämnt gameworks-titlar, men avsaknaden av (vettigt) stöd för tekniken ställer iallafall till det i detta test.

Skrivet av Viochee:

Det är värt att komma ihåg att detta är ett spel, men det ser ju bra ut för AMD.

men om Nvidia är bättre i något annat spel är det antagligen mutor osv *tar på mig foliehatten*

Precis, vilket jag också påpekade.

Problematiken med gameworks är verklig. Men det är inte alla som förstår eller vill ta till sig problematiken.

Skrivet av hakd:

En DX12 titel utan Nvidias Gameworks visar klart och tydligt hur tunga AMD's kort egentligen är när Nvidia inte gått in i produktionen av spelet och gjort allt för att sabba.

5fps till 980 TI
Tror jag gav 2850kr för mitt 390 på Black friday, Dubbla pengen för 5 extra FPS känns som en stor blåsning ändå.
http://cdn.sweclockers.com/artikel/diagram/11048?key=8b3b07d659ed3a9e9e74083ebae95a96

Jo, som någon innan skrev så lär vi ju inte se stöd för Async shaders i många Nvidia-titlar. Iallafall så länge Nvidia själva inte har något kort som stödjer detta vettigt.

Skrivet av jonas1972:

Haha ska bli roligt hur lång tid det tar innan nästa nvidia driver klipper ner Explicit Multiadapter som dom gjorde med dom fristånde physx korten från ageia en gång i tiden:(

Hanteringen av de som köpte Ageias PhysX-produkter var riktigt trist, speciellt när dessa kort fortfarande presterade riktigt bra flera år efter att stödet lades ner.

Skrivet av Ignostic:

Sitter och snickrar ihop ny, minde, dator och Explicit Multiadapter är hela anledningen till att jag ska ha m-atx istället för m-itx. Tyvärr är det stor brist på små chassin med bra ventliation som inte ser ut som fan.

Hoppas verkligen att den funktionen får fäste...överväger stödköp av Ashes of Singularity bara för att dom pushar för detta.

Jo, jag är lite i samma tankar. Sugen på en ny SFF men om explicit multiadapter verkligen blir en grej som används och faktiskt ger vettiga resultat så vill man ju helt klart ha plats med ett till kort i systemet.

Såvida vi inte kan börja koppla in en massa grafikkort i externa dockor snart nog då.

Permalänk
Datavetare
Skrivet av jesusbarnet:

http://www.sweclockers.com/nyhet/21013-amd-fullt-stod-for-dir...

nej det det stämmer att det inte finns något grafikkort på marknaden med fullt stöd

sen finns det sanningar och halvsanning
Nvidia's stöd är helt klart en av den senare kategorin

Inte sant, iGPU i Skylake har feature level 12.1 (vilket även Maxwell gen 2 har) samt dessa feature med högsta kapacitet (Tier 3, GCN har Tier 3 för "resource binding", Maxwell gen 2 har Tier 3 för "tiled resources"). Huruvida det spelar någon praktiskt roll för de med Skylake iGPU är en annan fråga

Hade inga som helst tvivel att GCN skulle vinna mer på DX12 än Maxwell, enda frågan är exakt hur mycket mer den kommer vinna i genomsnitt. Inte heller något konstigt att 380 kommer nära 970 och 390X kommer nära 980ti i en DX12 titel som är begränsad av shader-kapacitet, det ska bli så om inte AMD överdriver kapacitet i GCN eller Nvidia mörkar faktiskt kapacitet i sina kretsar (vilket får ses som uteslutet).

GCN är en väldigt bra design som lanserades vid helt fel tidpunkt. Har nämnt detta tidigare, men tycker många saker pekar på att något likt DX12 var planerat i samband med Win8-lanseringen. Skulle vara kul att se hur Fermi uppför sig i denna titel, för läser man whitepaper om de olika designerna så har Fermi saker som var meningslösa i DX11 men skulle gå att använda i DX12 (frågan är bara om dessa faktiskt används i DX12 drivarna, är trots allt en rätt gammal krets). Dessa saker togs bort i Kepler då de som sagt var meningslösa i DX11 och den ytan kunde användas bättre. Varför designade AMD GCN och varför hade Fermi dessa finesser om inte planen var att de skulle komma till användning runt Win8 lanseringen?

Innan GCN hade AMD i princip alltid en mer effektiv design än Nvidia (en mindre krets med färre transistorer för att nå en viss spelprestanda), men Nvidia kompenserade det "brute-force" genom att designa större (och dyrare) kretsar. Med facit i hand hade det nog varit betydligt bättre om VLIW-designen (som är effektiv för grafik men mindre bra för GPGPU jämfört med GCN, GPGPU står än idag och stampar) används även för 28 nm. I.o.f.s. alltid enklare att säga vad man borde har gjort...

Hårklyverier, men skulle inte säga att DX11 är "seriellt". Alla dagens GPUer är massiva parallella system, DX11 har överhuvudtaget inget problem att använda detta. Däremot är DX11 ett "sekventiellt" API, man kan bara hantera en sekventiell ström av instruktioner medan DX12 gör gör det möjligt att ha flera flera sekventiella strömmar av instruktioner. Jämförelsen med Hyperthreading är väldigt nära till hands här, även i att förklara varför Maxwell resp. GCN ger de resultat man ser.

DX11 är som en CPU med en tråd per CPU-kärna, den kan köra en sekvens av instruktioner. DX12 lägger till HT (SMT), är nu möjligt att köra flera strömmar genom varje CPU-kärna. Maxwell är som t.ex. Jaguar eller Silvermont, visst skulle man kunna lägga till SMT på dessa CPUer men enda resultatet skulle vara att man nu kör två instruktionsströmmar med halva hastigheten då dessa designer kan redan fylla sina beräkningsenheter men en instruktionsström.

GCN är som dagens "Core" eller som "gamla" Atom (Bonnell), båda dessa har (av helt olika skäl) svårt att fylla kapacitet av sina beräkningsenheter med en instruktionsström så lägger man till flera trådar per fysisk kärna kommer prestanda per CPU-tråd bli signifikant högre än halva hastigheten, d.v.s. totalt utfört arbete genom varje kärna ökar med HT. OBS: jämförelsen med HT här är bara en illustration, rent tekniskt är SMT och vad DX12/Vulkan gör väldigt olika.

Givet resultatet skulle jag också säga att Maxwell definitivt ser ut att stödja "async compute", men då den redan kan fylla kapacitet av sina beräkningsenheter så är förväntat resultat att total mängd utfört arbete blir ungefär detsamma även om man kör flera sekventiella strömmar. Att det blir något lägre kan förklaras i att det man måste hålla en del tillstånd per instruktionssekvens, något som har en låg men icke noll kostnad. Vinner man då inget i totalt beräkningskraft blir det vad vi ser nu. Detta är naturligtvis spekulation, vet inte om "async compute" stödet är färdig eller ej men känns ändå rimligt givet DX11 konstra DX12 resultatet för Maxwell/Kepler.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Friterad:

Fåniga konspirationsteorier med andra ord. Det är en självklarhet att man inte ska dra slutsatser utefter hur DX12 kommer prestera generellt för dom olika korten baserat på ett enda spel som dessutom är det första med DX12. Har ingenting med AMD/Nvidia att göra

Visst. Allt man inte kan bemöta med riktiga argument går jättebra att lägga i konspirationsteorilådan.

Det har inte med DX12 att göra. Även med tidigare tillfälen i beaktande kan man se att Sweclockers gillar att lägga in brasklappar så fort AMD har ett övertag, men gärna använder superlativ när det är Nvidia. Det är inget Hokus Pokus, det är ren dataanalys.

Men jag tror inte vi kommer så mycket längre i det här. Du vill inte se och då spelar det ingen roll vilka riktiga argument jag lägger fram.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Yoshman:

Inte sant, iGPU i Skylake har feature level 12.1

Ska man vara lite petig sa han faktiskt grafikkort

Permalänk
Medlem
Skrivet av Viochee:

Jo helt klart, men vad är det som säger att alla spel kommer köra hårt på det...

som sagt kul att AMD får vinna för en gång skull

Det tror jag absolut inte det kommer att göra. Vad jag har läst så lämpar det sig rätt bra till just RTS-spel som detta är.

Sen är det ju lite skumt att Nvidia sa att de stödjer Async Compute men tappar prestanda med det aktiverat. Står lite mer på sida 2 i artikeln om det.

Visa signatur

AMD 9800X3D ▪ MSI B850 Tomahawk Max ▪ Corsair 32GB 6000MT/s CL28 ▪ Palit 4070 Ti ▪ 1TB SSD 970 Evo+ ▪ Dark Power 13 1000W ▪ FD Define North XL ▪ Aorus AD27QD + LG 27GL850

Permalänk
Hjälpsam
Skrivet av jesusbarnet:

inget men det var ju svar på din fråga varför det gick sämre för det gröna i detta fal

Kan bero på att många anrop i DX12 ligger närmare hårdvaran, vilket ger mindre utrymme för drivarna att trolla fram extra prestanda.
En annan förklaring kan helt enkelt vara att Nvidia inte hunnit optimera sina drivrutiner för DX12 lika länge som för DX11.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ozzed:

Visst. Allt man inte kan bemöta med riktiga argument går jättebra att lägga i konspirationsteorilådan.

Det har inte med DX12 att göra. Även med tidigare tillfälen i beaktande kan man se att Sweclockers gillar att lägga in brasklappar så fort AMD har ett övertag, men gärna använder superlativ när det är Nvidia. Det är inget Hokus Pokus, det är ren dataanalys.

Men jag tror inte vi kommer så mycket längre i det här. Du vill inte se och då spelar det ingen roll vilka riktiga argument jag lägger fram.

Lite roligt att du säger dataanalys när det bara är din uppfattning, jag har inte samma uppfattning och då läser jag väldigt mycket utav dessa nyheter, varför har du mer rätt?

Permalänk
Medlem
Skrivet av Yoshman:

Inte sant, iGPU i Skylake har feature level 12.1 (vilket även Maxwell gen 2 har) samt dessa feature med högsta kapacitet (Tier 3, GCN har Tier 3 för "resource binding", Maxwell gen 2 har Tier 3 för "tiled resources"). Huruvida det spelar någon praktiskt roll för de med Skylake iGPU är en annan fråga

Hade inga som helst tvivel att GCN skulle vinna mer på DX12 än Maxwell, enda frågan är exakt hur mycket mer den kommer vinna i genomsnitt. Inte heller något konstigt att 380 kommer nära 970 och 390X kommer nära 980ti i en DX12 titel som är begränsad av shader-kapacitet, det ska bli så om inte AMD överdriver kapacitet i GCN eller Nvidia mörkar faktiskt kapacitet i sina kretsar (vilket får ses som uteslutet).

GCN är en väldigt bra design som lanserades vid helt fel tidpunkt. Har nämnt detta tidigare, men tycker många saker pekar på att något likt DX12 var planerat i samband med Win8-lanseringen. Skulle vara kul att se hur Fermi uppför sig i denna titel, för läser man whitepaper om de olika designerna så har Fermi saker som var meningslösa i DX11 men skulle gå att använda i DX12 (frågan är bara om dessa faktiskt används i DX12 drivarna, är trots allt en rätt gammal krets). Dessa saker togs bort i Kepler då de som sagt var meningslösa i DX11 och den ytan kunde användas bättre. Varför designade AMD GCN och varför hade Fermi dessa finesser om inte planen var att de skulle komma till användning runt Win8 lanseringen?

Innan GCN hade AMD i princip alltid en mer effektiv design än Nvidia (en mindre krets med färre transistorer för att nå en viss spelprestanda), men Nvidia kompenserade det "brute-force" genom att designa större (och dyrare) kretsar. Med facit i hand hade det nog varit betydligt bättre om VLIW-designen (som är effektiv för grafik men mindre bra för GPGPU jämfört med GCN, GPGPU står än idag och stampar) används även för 28 nm. I.o.f.s. alltid enklare att säga vad man borde har gjort...

Hårklyverier, men skulle inte säga att DX11 är "seriellt". Alla dagens GPUer är massiva parallella system, DX11 har överhuvudtaget inget problem att använda detta. Däremot är DX11 ett "sekventiellt" API, man kan bara hantera en sekventiell ström av instruktioner medan DX12 gör gör det möjligt att ha flera flera sekventiella strömmar av instruktioner. Jämförelsen med Hyperthreading är väldigt nära till hands här, även i att förklara varför Maxwell resp. GCN ger de resultat man ser.

DX11 är som en CPU med en tråd per CPU-kärna, den kan köra en sekvens av instruktioner. DX12 lägger till HT (SMT), är nu möjligt att köra flera strömmar genom varje CPU-kärna. Maxwell är som t.ex. Jaguar eller Silvermont, visst skulle man kunna lägga till SMT på dessa CPUer men enda resultatet skulle vara att man nu kör två instruktionsströmmar med halva hastigheten då dessa designer kan redan fylla sina beräkningsenheter men en instruktionsström.

GCN är som dagens "Core" eller som "gamla" Atom (Bonnell), båda dessa har (av helt olika skäl) svårt att fylla kapacitet av sina beräkningsenheter med en instruktionsström så lägger man till flera trådar per fysisk kärna kommer prestanda per CPU-tråd bli signifikant högre än halva hastigheten, d.v.s. totalt utfört arbete genom varje kärna ökar med HT.

Givet resultatet skulle jag också säga att Maxwell definitivt ser ut att stödja "async compute", men då den redan kan fylla kapacitet av sina beräkningsenheter så är förväntat resultat att total mängd utfört arbete blir ungefär detsamma även om man kör flera sekventiella strömmar. Att det blir något lägre kan förklaras i att det man måste hålla en del tillstånd per instruktionssekvens, något som har en låg men icke noll kostnad. Vinner man då inget i totalt beräkningskraft blir det vad vi ser nu. Detta är naturligtvis spekulation, vet inte om "async compute" stödet är färdig eller ej men känns ändå rimligt givet DX11 konstra DX12 resultatet för Maxwell/Kepler.

Tack för rättningen och ett förövrigt intressant inlägg!

Visa signatur

Thanks for the party, the house, the girls, the press, and..
Oh yeah, doing my laundry

Permalänk
Hjälpsam

@Yoshman: Bra och lättförståeligt förklarat.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Har gått och tänkt att med DX12 så skulle kanske ett gammalt GTX 680 hänga med lite längre men så ser man här att det presterar bättre under DX11... Förvisso högre upplösning och andra inställningar i testet än vad jag skulle kört men ändå, det ser ju inte lovande ut för äldre kort.
Nåväl, har ju ändå tänkt köpa nytt i år när de nya korten börjar komma och det ser ju ut att bli ett spännande år på den här fronten!

Visa signatur

| I7 3770K | NH-D14 | Asus P8Z77 V | Corsair AX 760 | Gigabyte G1 Gaming GTX 1080 | Fractal Design R4 | Cruical BallistiX Tactical 16GB | Samsung 840 Pro 128GB | Samsung 850 EVO 500GB | 1TB WD | Windows 10 Pro |

Permalänk
Medlem

Det alla verkar ha glömt är väl att gratulera Microsoft för ett nytt underbart ramverk eller hur?
Detta lovar ju väldigt gott för Xbox One med AMD under huven och numera Windows 10 med DX12.
Och börjar man titta runt lite så är ju funktionen Asynchronous Compute inte måste stöd i DX12 utan har levt ett lite undanskymt även i Microsofts lilla värld. Detta får nog en att tänka på att det var/är tänkt för Xbox One och AMD.
Grattis till AMD gänget ni har nu ett beta spel (early access för 50€) som piskar Nvidia och det skulle nog passa bra på en konsol som Xbox One.

Visa signatur

..:[EVGA Z97 Classified][Intel Core i7 4790K @ 4.8][4x8GB Dominator @ 2133 XMP][2x EVGA GTX 980 Ti SC+ ACX 2+][Cooling EKWB custom loop]:..
..:[EVGA X99 FTW K][Build in progress]:..

Permalänk
Medlem

När det begav sig så spelade Nvidia 680 och AMD 7970 i samma liga nu med DX12 så utklassar 7970 680 med över 36%

AMD presterar extremt bra mot Nvidia även i 4K

7970 337% snabbare än 680 i 4K

7970 har endast 3 bps upp till 970 så frågan är kan ett AMD 7970 kort från 2012 bli snabbare är näst snabbaste kort från Nvidia 2016 i DX12???

Frågan är om inte 7970 kommer att ta skalpen av 970 inom en snar framtid i dx 12

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090