Tråden som skvallrar om Polaris.

Permalänk
Medlem
Skrivet av Yoshman:

Kan bara tala för mig själv och jag menar inte att DX11 är det slutgiltiga svaret, tvärtom har jag flera gånger pekat på att det APIet är en väldigt dålig abstraktion av en modern GPU så det behöver ersättas.

Det jag pekar på är att DX12/Vulkan kanske inte riktigt blev vad man kunde önska sig. Även om det är tidigt i DX12 liv så måste ju något vara fundamental fel när i praktiken 100 % av alla titlar så här långt gör ett sämre jobb med DX12 än vad Nvidia är kapabla till med sin DX11 drivare.

Även på AMD sidan finns klara indikationer på att DX12 har problem, t.ex. detta
http://cdn.wccftech.com/wp-content/uploads/2016/02/6400-285.png
http://cdn.wccftech.com/wp-content/uploads/2016/02/6400-Nano.png
Här är två GCN1.2 kort, d.v.s. de implementerar en identisk ISA men de är väldigt annorlunda i sina styrkor/svagheter då de har en väldigt annorlunda fördelning och absolut värde för rastreringskapacitet, VRAM-bandbredd och shader-kapacitet. Notera att 285 konsekvent får lägre prestanda med DX12 medan Fury X får högre prestanda med DX12, det alltså med kretsar som är identiska i hur de fungerar rent logiskt (samma ISA).

Även på AMDs sida ... är detta nån fanboy-diskussion bara för att snackar i en "Polaris-tråd"? Jag vet att du är hårt knuten till Nvidia och det får du gärna vara. Jag bryr mig inte så jävla mycket.

Det jag tänkte säga om artikeln är att det är synd att de inte inkluderade fler grafikkort. Men det går väl att leta upp fler artiklar som undersöker detta fenomen. Om man tittar på dooms implementation, som verkar vara mycket vettigare, så ser man att alla tillverkare får en bra ökning. OpenGL har definitivt inte varit bra för AMD och kan väldigt troligt vara sämre optimerat än vad DX har varit. Dock så får att kort en positiv förändring med det "lågnivå-api:et". Antingen har Dooms optimering varit skit sedan innan, eller så har de gjort rätt. Det får vi se när vi har mer testdata att tillgå. (http://imgur.com/vmRddOm)

Så jag tror inte att man ska dra slutsatser att lågnivå API är dåliga, bara för att alla inte implementerat dem korrekt än så länge eller för att några kort avviker i vissa scenarion.

Kort och gott så skulle jag vilja säga att ifall man får bättre prestanda i "högnivå-api" än vad man får i ett "lågnivå-api", där man har större möjlighet själv att bestämma vad som händer, så måste man göra något fel eller så byggdes "högnivå-api:et" med hjälp av älvstoff / magi.

Skrivet av Yoshman:

Tanken med DX12/Vulkan är inte fel, men allt mer pekar på att man kanske inte riktigt förstått var de största flaskhalsar låg och man har därför skapat ett API som är onödigt komplicerat att använda utan att för den delen ge speciellt mycket vinst i praktiken. För råder inga tvivel om att DX12 har rejält minskat overhead i vissa lägen, är ju nästan en faktor tio i skillnad i t.ex. 3Dmarks "draw-call overhead" test.

Men uppenbarligen var inte det en flaskhals i dagens spel när man kör på PC. CPU-overhead är däremot absolut en flaskhals på konsolerna, dock har en normal gaming PC en CPU som är flera gånger starkare per CPU-kärna vilket nog förklarar varför det inte verkar vara en flaskhals där.

Polaris är ju en krets som är bättre att förse sina beräkningsenheter med arbete jämfört med GCN1.1 och GCN1.2, något som manifesterar sig i att vissa titlar som t.ex. Hitman, RoTR och Warhammer presterar bättre i DX11 jämfört med DX12 på RX 470/480 (DX11 är en mindre flaskhals i detta läge samt finesser som "async shaders" ger mindre effekt på en mer effektiv krets).

Reducerad overhead = prestandaökning. Ingen flaskhals i de flesta fall, som du säger, men summan av det är att man kan få bättre prestanda. Återigen, om man vet vad man gör. Och det kommer finns de som vet hur man ska göra. Människor är fantastiska.

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av kelthar:

Även på AMDs sida ... är detta nån fanboy-diskussion bara för att snackar i en "Polaris-tråd"? Jag vet att du är hårt knuten till Nvidia och det får du gärna vara. Jag bryr mig inte så jävla mycket.

Det jag tänkte säga om artikeln är att det är synd att de inte inkluderade fler grafikkort. Men det går väl att leta upp fler artiklar som undersöker detta fenomen. Om man tittar på dooms implementation, som verkar vara mycket vettigare, så ser man att alla tillverkare får en bra ökning. OpenGL har definitivt inte varit bra för AMD och kan väldigt troligt vara sämre optimerat än vad DX har varit. Dock så får att kort en positiv förändring med det "lågnivå-api:et". Antingen har Dooms optimering varit skit sedan innan, eller så har de gjort rätt. Det får vi se när vi har mer testdata att tillgå. (http://imgur.com/vmRddOm)

Så jag tror inte att man ska dra slutsatser att lågnivå API är dåliga, bara för att alla inte implementerat dem korrekt än så länge eller för att några kort avviker i vissa scenarion.

Kort och gott så skulle jag vilja säga att ifall man får bättre prestanda i "högnivå-api" än vad man får i ett "lågnivå-api", där man har större möjlighet själv att bestämma vad som händer, så måste man göra något fel eller så byggdes "högnivå-api:et" med hjälp av älvstoff / magi.

Reducerad overhead = prestandaökning. Ingen flaskhals i de flesta fall, som du säger, men summan av det är att man kan få bättre prestanda. Återigen, om man vet vad man gör. Och det kommer finns de som vet hur man ska göra. Människor är fantastiska.

Om nu flaskhalsen inte är kostnaden för "draw-calls" och det är den man primärt vinner med DX12/Vulkan så kvittar det ju om man "vet vad man gör".

Tittar man historiskt på hur det brukar gå för lågnivå-APIer riktade mot marknader med relativt heterogen maskinvarukonfiguration så är utsikterna att DX12/Vulkan blir succéer rätt låg. För att vara ett "low-level" API är DX12/Vulkan ändå rätt högnivå, vilket ändå ökar chansen att det ändå blir något bra i slutändan.

Om nu lågnivå är så väldigt bra, varför skriver vi inte alla program i assembler eller i alla fall C/C++?

Naturligtvis en retorisk fråga. Dels tar det betydligt längre tid att göra nästan allt i assembler och endast en försvinnande liten fraktion av alla programmerare skulle producera assembler som är snabbare än moderna kompilatorer. Det är helt enkelt betydligt vettigare att lägga lågnivåoptimeringar samt kunskap om egenheter hos specifika kretsar i kompilatorn än att kräva att alla ska ha kunskapen och den ska implementeras i alla program.

Google har gjort forskning på just prestanda i kod skriven i C++ kontra kod skriven i Java. Vad de kom fram till är att majoriteten av alla utvecklare producerar kod där Java-versionen faktiskt är snabbare än deras C++-version. Dock såg man att de personer som hade djup förståelse för designen i moderna CPUer samt en väldigt stor erfarenhet att skriva prestandakritisk kod klarade av att utnyttja C++ på "rätt" sätt och de kunde få ett bättre resultat där än i Java som inte ger samma kontroll.

Så frågan är om DX12 kontra DX11 är mer lik assemblerfallet eller Java/C++ fallet.

Jobbade själv också med lågnivå APIer för nätverksapplikationer för ett par år sedan. Finns faktiskt flera paralleller mellan vad vi nu ser med DX12 och vad man då höll på med i lågnivå APIer som DPDK och ODP. Bl.a. kunde man utnyttja flera CPU-kärnor långt bättre i dessa lågnivå APIer, förutsatt att man hade extremt detaljerad kunskap om cache-design och kostnader för olika lågnivå-operationer.

Designade bl.a. en plattform ovanpå detta som kunde hantera 5 miljoner HTTP-transaktioner per kärna på en Xeon E5-2670 (det var vid tillfället en av de absolut snabbast systemen som fanns i världen på den maskinvaran). Microsoft är ju glada att man totalt når över 1 miljon HTTP-transaktioner totalt över hela systemet i .NET tidigare i år...

Varför tog inte det vi och många andra jobbade med över världen då om de resultat vi såg fortfarande är långt snabbare än vad mer "normala" plattformar ser idag? Problemet med de extremt snabba system som var relativt tunna lager ovanpå extremt lågnivå APIer för nätverksaccess var att det krävde att de som använde systemen förstod lika mycket om CPU/cache-design som de som designat TCP/IP-stacken. Så även om användarna inte behövde förstå detaljer kring nätverksprotokoll behövde de förstå något annat som extremt få programmerare i praktiken har kunskap om, d.v.s. i praktiken blev det extremt dyrt att använda detta.

De slutgiltiga spikarna i kistan var att de flesta större applikationer hade andra flaskhalsar som blev enormt dominerade när kostnaden för själva nätverksdelen minskade med ungefär en faktor tio. Så den faktiska prestandavinsten blev inte alls lika imponerande, typiskt mellan noll till en faktor två med kanske 20-30 % som genomsnitt. Och det var alltid svårare att skriva program mot den snabbare plattformen.

Den absolut sista spiken var att man ställde frågan: varför kan man göra saker som är en tiopotens snabbare än vad man normalt sett gör i OS-kärnor och varför skalar den koden inte lika bra? Det tog en rad år, lite små justeringar på högnivå APIerna och rejäla modifikationer i designen av nätverkoden (i Linux i detta fall) och idag är prestandaskillnaden inte i närheten en faktor tio längre utan mer kanske en faktor 2. I verkliga applikationer blir då skillnaden typiskt några procent så i princip ingen tycker det är värt den högre utvecklingskostnaden.

Och "hårt knuten till Nvidia"? Tja, nog känns det som att man skulle bemötas med ett betydligt större mått av acceptans om man deltog i ett av Livets Ords bibelläger som ateist än vad man möts av här om man råkar skriva något som uppfattas som kritik mot någons favoritföretag. Har genom alla år haft två Nvidia-kort för stationär PC, Geforce256 samt 970. I övrigt har jag haft ATI/AMD (och har en lång rad Athlons/Phenoms). Det är däremot helt korrekt att jag anser att Nvidia utan tvekan haft ledartröjan ändå sedan man lanserade 900-serien och tyvärr verkar gapet öka snarare än minska

Blir så klart svårt att se elefanten i rummet när man bara letar efter bevis för "fanboyism". Självklart kan man hitta andra resultat än det jag postade ovan, poängen var att belysa det absolut största problemet med "low-level" APIer när man inte har en helt homogen maskinvarukonfiguration att jobba mot. 285 och Fury X är logiskt sett identiska ändå gav de tidiga DX12 resultaten totalt olika resultat, det medan båda korten presterade som väntat med DX11.

I ett lågnivå API måste man optimera för alla konfigurationer i alla program. Verkar det optimalt? Och hur optimerar för kort som ännu inte är lanserade? Med ett högnivå API för GPUer ligger ju majoriteten av optimeringarna i drivers, skapa optimala drivers och alla titlar ser bra prestanda.

På en konsol är det å andra sidan självklart varför lågnivå API är vettigt. Det finns bara en konfiguration och den kommer aldrig ändras under livstiden för del spel som släpps till konsolen. Ska bli väldigt spännande att se hur PS4 kontra PS4 Pro rör om i den sanningen...

Jämförelsen med Polaris var dels för att i någon mån hålla sig till ämnet men främst att peka på att saker som borde vara positiva (att Polaris redan i kislet är en mer effektiv krets än tidigare modeller) kan te sig negativa om måttet på "bra" är att man kan visa att DX12 visst är bättre än DX11.

Jämför man 970 och 390 så har den senare ungefär 50 % högre kapacitet på pappret, jämför man i stället 1060 och 480 så har den senare ungefär 30 % högre kapacitet på pappret. I praktiken presterar dessa par GPUer i det närmaste identiskt. Pascal är något mer effekt än Maxwell, så Polaris är långt mer effekt än GCN1.1 redan i DX11. En effekt är då att potentialen för DX12 är mindre hos Polaris, men är det dåligt? Nej, det visar bara att Polaris är ett betydligt bättre designat kisel!

Och säger inte att svaret är inte att behålla DX11, det är en förlegad abstraktion av ett grafikkort. Men kanske är så att Apple valde en bättre väg med sitt Metal. Där har men en bra abstraktion av moderna GPUer, men det är ändå relativt "high-level". D.v.s. Apple kanske träffade C++/Java fallet medan DX12/Vulkan är mer assemblerfallet.

OBS: Ovan är självklart kryddat med massor av spekulation och personliga gissningar. Kan absolute inte kalla mig expert på 3D då det är över 15 år sedan jag jobbade med 3D-grafik. Men har hyfsad koll på OS-kernel utveckling, programvaruutveckling för multicore-system samt optimering för riktiga low-end system (i princip det jag jobbat med de senaste 15 åren). Och detta är trots allt ett diskussionsforum.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Entusiast
Skrivet av Yoshman:

Tanken med DX12/Vulkan är inte fel, men allt mer pekar på att man kanske inte riktigt förstått var de största flaskhalsar låg och man har därför skapat ett API som är onödigt komplicerat att använda utan att för den delen ge speciellt mycket vinst i praktiken.

Det jag i så fall inte förstår är hur "man" (Ingen aning om vilka det är i praktiken ) kunde göra detta beslutet eftersom det till och med är uppenbart för gemene gamer att processorer blivit mindre och mindre viktiga på sistone.
Borde inte dessa djupt insatta ingenjörer i så fall förstått att DX12/Vulkan inte var vägen att gå för PC?

Som du säger så är ju API'erna i och för sig perfekta för konsoler med tanke på att en och bara en konfiguration kommer användas där man då kan lägga mindre krut på CPU'n.

Visa signatur

Den digitala högborgen: [Fractal Design Meshify C] ≈ [Corsair RM850x] ≈ [GeForce RTX 3080] ≈ [AMD Ryzen 7 7800X3D ≈ [Noctua NH-U14S] ≈ [G.Skill Flare X5 32GB@6GHz/CL30] ≈ [MSI MAG B650 TOMAHAWK] ≈ [Kingston Fury Renegade 2 TB] ≈

Permalänk
Medlem
Skrivet av Sisyfos:

På någon kampanj du hittade då i så fall, för HD 7870 lanserades för 3000-3500kr i Mars 2012 och från vad jag minns så gick den aldrig under 1500kr utanför kampanjer.

Men jag kan definitivt hålla med om att RX 460 är lite långsam, man får dock ha i åtanke att det till skillnad från HD 7870 går att köpas i passiva varianter vilket absolut är ett plus.
Jag tror dock att kortet kommer leta sig ner till tresiffriga belopp någon gång efter att Nvidia har börjat konkurrera med GTX 1050.
Om den nu gör det så vore ju det trevligt för <1000kr-segmentet har i stort sett aldrig varit prisvärt när man köper nytt oavsett generation.

Nej det var inte en kampanj. Men det var en ovanligt billig serie. Poängen är dock att man borde se större skillnad än så på tre år. Nu är det negativ utveckling.
Får komma ihåg att prestandan stod still i den här prisklassen i flera år innan dess också, från 4850 till 6770 hände inte mycket, det var först med 7000-serien det hände lite lite, men efter att 7870 fallit ner till denna prisklassen har det stått still igen. Har alltså varit ett tillfälle inom loppet av 8 år som vi faktiskt haft lite rolig utveckling.
Med tanke på att highend gått från GTX 280 till Titan X Pascal så är det rätt pinsamt att denna prisklass gått från 4850 till RX 460 under samma tid. Vet att dollarpriset spelar in, men det har varit en kraftig förskjutning i förhållandet mellan grafikkort för runt 1500:- och highend över de senaste åtta åren.

Permalänk
Avstängd
Skrivet av Yoshman:

Om nu flaskhalsen inte är kostnaden för "draw-calls" och det är den man primärt vinner med DX12/Vulkan så kvittar det ju om man "vet vad man gör".

Och säger inte att svaret är inte att behålla DX11, det är en förlegad abstraktion av ett grafikkort. Men kanske är så att Apple valde en bättre väg med sitt Metal. Där har men en bra abstraktion av moderna GPUer, men det är ändå relativt "high-level". D.v.s. Apple kanske träffade C++/Java fallet medan DX12/Vulkan är mer assemblerfallet.

Tog en månad för en programmerare att implementera Mantle.
Oxide games.
så assembler snacket faller direkt gällande dx12

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Medlem
Skrivet av Yoshman:

För att vara ett "low-level" API är DX12/Vulkan ändå rätt högnivå, vilket ändå ökar chansen att det ändå blir något bra i slutändan.

Därav situationstecken och symboliska namn för att sätta dem i relation till varandra.

Skrivet av Yoshman:

Google har gjort forskning på just prestanda i kod skriven i C++ kontra kod skriven i Java. Vad de kom fram till är att majoriteten av alla utvecklare producerar kod där Java-versionen faktiskt är snabbare än deras C++-version. Dock såg man att de personer som hade djup förståelse för designen i moderna CPUer samt en väldigt stor erfarenhet att skriva prestandakritisk kod klarade av att utnyttja C++ på "rätt" sätt och de kunde få ett bättre resultat där än i Java som inte ger samma kontroll.

Så frågan är om DX12 kontra DX11 är mer lik assemblerfallet eller Java/C++ fallet.

Utan att göra några efterforskningar, så är jag säker på att majoriteten av de stor spelmotorerna är skriva i C/C++. Spellogiken är skriptad i LUA eller liknande script-språk i de flesta fall skulle jag anta. Men du slår huvudet på spriken. De som vet, kan. Jag hade själv sagt att shaders är åt asm-hållet.

Anledningen till varför man gärna skriver i .Net eller Java vet vi båda två. Effektivitet = funktionalitet / tidsenhet.

Skrivet av Yoshman:

Jobbade själv också med lågnivå APIer för nätverksapplikationer för ett par år sedan.

Det kanske är jämförbart på någon filosofisk nivå eller övrigt, men det kan endast du avgöra förrän du satt dig ner och byggt en spelmotor.

Skrivet av Yoshman:

De slutgiltiga spikarna i kistan var att de flesta större applikationer hade andra flaskhalsar som blev enormt dominerade när kostnaden för själva nätverksdelen minskade med ungefär en faktor tio. Så den faktiska prestandavinsten blev inte alls lika imponerande, typiskt mellan noll till en faktor två med kanske 20-30 % som genomsnitt. Och det var alltid svårare att skriva program mot den snabbare plattformen.

Skrivet av Yoshman:

Och "hårt knuten till Nvidia"? Tja, nog känns det som att man skulle bemötas med ett betydligt större mått av acceptans om man deltog i ett av Livets Ords bibelläger som ateist än vad man möts av här om man råkar skriva något som uppfattas som kritik mot någons favoritföretag.

Blir så klart svårt att se elefanten i rummet när man bara letar efter bevis för "fanboyism". Självklart kan man hitta andra resultat än det jag postade ovan, poängen var att belysa det absolut största problemet med "low-level" APIer när man inte har en helt homogen maskinvarukonfiguration att jobba mot.

Jo, men din post innehåller "Även på AMDs sida", när jag aldrig överhuvud taget nämnt någon tillverkare utan endast talat konceptuellt. Jag har aldrig ägt ett kort från AMD. Alltid kört Nvidia.

Skrivet av Yoshman:

285 och Fury X är logiskt sett identiska ändå gav de tidiga DX12 resultaten totalt olika resultat, det medan båda korten presterade som väntat med DX11.

Om den är identisk på alla sätt så måste det vara något annat som påverkar det. Korten i sig själva är inte identiska. Ingen aning om minnesmängd (högst osannolikt) eller bandbredd (kanske) som påverkar.

Skrivet av Yoshman:

I ett lågnivå API måste man optimera för alla konfigurationer i alla program. Verkar det optimalt? Och hur optimerar för kort som ännu inte är lanserade? Med ett högnivå API för GPUer ligger ju majoriteten av optimeringarna i drivers, skapa optimala drivers och alla titlar ser bra prestanda.

Jag skulle vilja vända på biffen när det gäller drivrutiner. Är det inte galet att en hårdvarutillverkare skall anpassa ett lager mellan sin hårdvara och speltillverkarnas mjukvara för att speltillverkarnas kod skall köra bra? Så vida det inte är en generell optimering av drivrutinerna? Ska jag kräva av monark att jag skall kunna trampa på styret på min cykel bara för att jag inte lärt mig hur en cykel fungerar? Komplexitetsnivån är av de två sakerna jag presenterade är av olika magnitud, men jag är säker på att mitt förhållningssätt visar sig.

Titlarna bör anpassa sig efter drivrutinerna och arkitekturen, inte tvärt om. För då bygger man det på ett sätt som är suboptimalt jämfört med verkligheten. Om man nu är ute efter bra prestanda. Det är här kommer spelmotortillverkarna in i bilden, imo.

Man kan diskuttera om Nvidia tillhandahåller hårdvara eller en tjänst.

Skrivet av Yoshman:

Jämför man 970 och 390 så har den senare ungefär 50 % högre kapacitet på pappret, jämför man i stället 1060 och 480 så har den senare ungefär 30 % högre kapacitet på pappret. I praktiken presterar dessa par GPUer i det närmaste identiskt. Pascal är något mer effekt än Maxwell, så Polaris är långt mer effekt än GCN1.1 redan i DX11. En effekt är då att potentialen för DX12 är mindre hos Polaris, men är det dåligt? Nej, det visar bara att Polaris är ett betydligt bättre designat kisel!

Ja, det är sorgligt att man inte kan få ut mer prestanda / transistor. Dock så vill jag se vad som händer med de stora spelmotorerna när de har anammat de nya API:erna. Må det vara Vulkan eller DX12.

Skrivet av Yoshman:

Och säger inte att svaret är inte att behålla DX11, det är en förlegad abstraktion av ett grafikkort. Men kanske är så att Apple valde en bättre väg med sitt Metal. Där har men en bra abstraktion av moderna GPUer, men det är ändå relativt "high-level". D.v.s. Apple kanske träffade C++/Java fallet medan DX12/Vulkan är mer assemblerfallet.

Har inte alls tittat på Metal, är ganska färgad av vad jag tycker om Apple som företag.

Skrivet av Yoshman:

OBS: Ovan är självklart kryddat med massor av spekulation och personliga gissningar. Kan absolute inte kalla mig expert på 3D då det är över 15 år sedan jag jobbade med 3D-grafik. Men har hyfsad koll på OS-kernel utveckling, programvaruutveckling för multicore-system samt optimering för riktiga low-end system (i princip det jag jobbat med de senaste 15 åren). Och detta är trots allt ett diskussionsforum.

Har förstått din bakgrund sedan tidigare. Jag jobbar endast med högnivå-språk nuförtiden, just p.g.a tidseffektivit. Assembler slutade jag med i början av tonåren. Det är inte förrän som jag började bygga spelmotorer på fritiden som jag började bli sugen på att ta upp C++, men det kommer jag nog inte göra med tanke på den tidsbrist som jag har nu när jag är dubbel-pappa.

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av Sisyfos:

Det jag i så fall inte förstår är hur "man" (Ingen aning om vilka det är i praktiken ) kunde göra detta beslutet eftersom det till och med är uppenbart för gemene gamer att processorer blivit mindre och mindre viktiga på sistone.
Borde inte dessa djupt insatta ingenjörer i så fall förstått att DX12/Vulkan inte var vägen att gå för PC?

Som du säger så är ju API'erna i och för sig perfekta för konsoler med tanke på att en och bara en konfiguration kommer användas där man då kan lägga mindre krut på CPU'n.

Skrev "man" för jag vet inte heller. Det är en eller flera av "spel-branschen" (där alla fall vissa delar efterfrågat detta), Microsoft (av uppenbara skäl), AMD/Nvidia/Intel (GPU-tillverkarna som alltid är med när Microsoft tar fram en ny DX-version).

En sak det trycktes väldigt mycket på innan DX12 släppet och även i samband med Mantle vad att dessa nya APIer skulle ge lägre "overhead". Bl.a. 3DMark visar att så även blev fallet, är upp mot en tiopotens bättre råprestanda i DX12.

Det jag försöker peka på är att man har bevisligen undanröjt en flaskhals. Men kanske missade man en rad andra flaskhalsar, dessa kan ju ha varit "osynliga" tidigare då det fanns en annan (kostnad för draw-calls) som bara var lite mer dominerade. Om så är fallet blir totala vinsten rätt minimal men man får ändå betala kostnaden för att använda ett API som (enligt både AMD och Nvidia) är mer tids- och kunskapskrävande.

Skrivet av Flopper:

Tog en månad för en programmerare att implementera Mantle.
Oxide games.
så assembler snacket faller direkt gällande dx12

Tog och ungefär en månad från att Ashes of the Singularity släpptes till dess att Nvidia fått ihop en drivare så att spelet presterade bättre i DX11 än i DX12, det trots att Oxide själv sa att detta spel använder så mycket "draw-calls" att det skulle vara en bra mätare på hur mycket bättre DX12 är på just detta. Senare har Oxide sagt att de själva aldrig trodde det Nvidia gjorde skulle vara möjligt.

Tror därför du missade vilken jämförelse jag försökte göra med assembler. I DX11 fallet kan man se driver lite som uppgiften kompilatorn har för programspråk medan DX12 är som att direkt skriva assembler.

För att det senare fallet ska prestera bättre måste alla programmerare ha kunskap om alla ISA och mikroarkitekturer som man vill optimera för.

I det förra räcker det men att ha generell kunskap om hur man skriver effektiva program medan de som skriver kompilator-back-end för en viss ISA/mikroarkitektur är de enda som behöver specialkunskaper om just den ISA/uarch.

Skrivet av kelthar:

Därav situationstecken och symboliska namn för att sätta dem i relation till varandra.

Utan att göra några efterforskningar, så är jag säker på att majoriteten av de stor spelmotorerna är skriva i C/C++. Spellogiken är skriptad i LUA eller liknande script-språk i de flesta fall skulle jag anta. Men du slår huvudet på spriken. De som vet, kan. Jag hade själv sagt att shaders är åt asm-hållet.

Anledningen till varför man gärna skriver i .Net eller Java vet vi båda två. Effektivitet = funktionalitet / tidsenhet.

Det kanske är jämförbart på någon filosofisk nivå eller övrigt, men det kan endast du avgöra förrän du satt dig ner och byggt en spelmotor.

Jo, men din post innehåller "Även på AMDs sida", när jag aldrig överhuvud taget nämnt någon tillverkare utan endast talat konceptuellt. Jag har aldrig ägt ett kort från AMD. Alltid kört Nvidia.

Om den är identisk på alla sätt så måste det vara något annat som påverkar det. Korten i sig själva är inte identiska. Ingen aning om minnesmängd (högst osannolikt) eller bandbredd (kanske) som påverkar.

Jag skulle vilja vända på biffen när det gäller drivrutiner. Är det inte galet att en hårdvarutillverkare skall anpassa ett lager mellan sin hårdvara och speltillverkarnas mjukvara för att speltillverkarnas kod skall köra bra? Så vida det inte är en generell optimering av drivrutinerna? Ska jag kräva av monark att jag skall kunna trampa på styret på min cykel bara för att jag inte lärt mig hur en cykel fungerar? Komplexitetsnivån är av de två sakerna jag presenterade är av olika magnitud, men jag är säker på att mitt förhållningssätt visar sig.

Titlarna bör anpassa sig efter drivrutinerna och arkitekturen, inte tvärt om. För då bygger man det på ett sätt som är suboptimalt jämfört med verkligheten. Om man nu är ute efter bra prestanda. Det är här kommer spelmotortillverkarna in i bilden, imo.

Man kan diskuttera om Nvidia tillhandahåller hårdvara eller en tjänst.

Ja, det är sorgligt att man inte kan få ut mer prestanda / transistor. Dock så vill jag se vad som händer med de stora spelmotorerna när de har anammat de nya API:erna. Må det vara Vulkan eller DX12.

Har inte alls tittat på Metal, är ganska färgad av vad jag tycker om Apple som företag.

Har förstått din bakgrund sedan tidigare. Jag jobbar endast med högnivå-språk nuförtiden, just p.g.a tidseffektivit. Assembler slutade jag med i början av tonåren. Det är inte förrän som jag började bygga spelmotorer på fritiden som jag började bli sugen på att ta upp C++, men det kommer jag nog inte göra med tanke på den tidsbrist som jag har nu när jag är dubbel-pappa.

Jag har designat spelmotorer, var just bl.a. sådan 3D-programmering jag håll på med för länge sedan.

Enda jag överhuvudtaget inte håller med om här är synen på vad en drivrutin har för uppgift och hur den optimeras.

Applikationen använder inte maskinvara direkt, så är även fallet med 3D-grafik (också med DX12/Vulkan, är dock mindre som görs av drivers där). Om man har en bra högnivåabstraktion av en uppgift lämnar det väldigt mycket möjlighet till den som skriver lagret mellan APIet abstraktionen presenterar mot applikationen och maskinvaran till att optimera.

Så en bra högnivåabstraktion ger alltså de som är expert på varje specifik krets större spelrum att utnyttja styrkor och kringgå svagheter. Känns ju väldigt mycket lämpligare att detta arbete utförs av de som är expert på respektive krets i stället i form av en drivrutin som är specifik för kretsen men generell för högnivåabstraktionen. Spelutvecklare kan då fokusera på generella optimeringar, d.v.s. inte göra mer jobb än nödvändigt, medan man slipper tänka på specifika egenheter i vissa kretsar.

Med en lågnivåabstraktion kan man självklart rent teoretisk pressa mer på en specifik plattform. Problemet på PC är dess heterogena maskvara... För att detta i genomsnitt ska ge en boost så måste applikationen ha tillräckligt mycket specialoptimeringar för varje krets att det totala resultatet blir bättre än lite mer overhead p.g.a. en högre abstraktionsnivå ihop med ett mellanlager som är hårdoptimerat för just den maskinvara som den aktuella plattformen har.

Hela konceptet av ett OS kom ju till just för att det blev ohållbart att ha logiken för att driva maskinvara i programmen. I stället gjorde man abstraktioner av de funktioner applikationer typiskt behöver och implementerade drivrutiner för att hantera olikheter i maskinvaran som realiserar en viss abstraktion.

Visst är det tidigt i DX12/Vulkans liv, så kan komma något genombrott. Det som är lite oroande är att de flesta andra "lågnivå APIer" har normalt visat på rejäla prestandavinster i princip från dag ett, i alla fall inom en del områden. Så var t.ex. fallet med ODP/DPDK, de flesta kunde skriva enklare applikationer (inte bara mikrobenchmarks) som verkligen gick runt en tiopotens snabbare. Problemet var sedan att högnivå implementationerna blev rejält mycket snabbare samt att lite mer avancerade applikationer visade sig ha en lång rad andra flaskhalsar man inte tänkt på och dessa blev dominerade så fort man optimerade nätverkskoden.

Att Apples Metal verkar kunna uppvisa samma vinst i form av billiga "draw-calls" på relativt CPU-svaga enheter (Iphone/Ipad) pekar också på att det fanns en rad flaskhalsar i grafik som man inte tänkt på och som DX12/Vulkan kanske inte löste, i alla fall inte bättre än Metal som är ändå enklare att använda.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av Yoshman:

Tog och ungefär en månad från att Ashes of the Singularity släpptes till dess att Nvidia fått ihop en drivare så att spelet presterade bättre i DX11 än i DX12, det trots att Oxide själv sa att detta spel använder så mycket "draw-calls" att det skulle vara en bra mätare på hur mycket bättre DX12 är på just detta. Senare har Oxide sagt att de själva aldrig trodde det Nvidia gjorde skulle vara möjligt.

Tror därför du missade vilken jämförelse jag försökte göra med assembler. I DX11 fallet kan man se driver lite som uppgiften kompilatorn har för programspråk medan DX12 är som att direkt skriva assembler.

För att det senare fallet ska prestera bättre måste alla programmerare ha kunskap om alla ISA och mikroarkitekturer som man vill optimera för.

I det förra räcker det men att ha generell kunskap om hur man skriver effektiva program medan de som skriver kompilator-back-end för en viss ISA/mikroarkitektur är de enda som behöver specialkunskaper om just den ISA/uarch.

Visst är det tidigt i DX12/Vulkans liv, så kan komma något genombrott.

Mitt argument står sig fortfarande.
mer kompetens utveckling är bara bra för framtidens spelutveckling plus massor är vana vid konsol utveckling där lågmetal access funnits en längre tid.

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Inofficiell ambassadör
Skrivet av Flopper:

Mitt argument står sig fortfarande.
mer kompetens utveckling är bara bra för framtidens spelutveckling plus massor är vana vid konsol utveckling där lågmetal access funnits en längre tid.

Men du kommer ju fortfarande inte runt elefanten i rummet: Det funkar bra på konsol eftersom utvecklarna bara behöver lära sig optimera mot en uppsättning hårdvara. På PC finns det hundratals variationer. De måste inte bara lära sig hur de ska optimera mot en konsol de måste lära sig optimera mot

alla möjliga grafikkort som bland annat Pascal, Maxwell, Kepler, GCNs alla iterationer sen 7*** serien m.f.l

Plus att vissa kort inom samma generation beter sig olika.

Plus alla varianter av ovan med olika processorer och mängder ram.

Du kan inte riktigt jämföra det mot att optimera mot två variabler
Playstation 4 och Xbox One

Skickades från m.sweclockers.com

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5700X3D RAM Corsair Vengance 32GB @ 36000 MHZ
GPU Gigabyte 4070 Super Gaming OC Skärm Acer X34A

Permalänk
Avstängd
Skrivet av Xyborg:

Men du kommer ju fortfarande inte runt elefanten i rummet: Det funkar bra på konsol eftersom utvecklarna bara behöver lära sig optimera mot en uppsättning hårdvara. På PC finns det hundratals variationer. De måste inte bara lära sig hur de ska optimera mot en konsol de måste lära sig optimera mot

alla möjliga grafikkort som bland annat Pascal, Maxwell, Kepler, GCNs alla iterationer sen 7*** serien m.f.l

Plus att vissa kort inom samma generation beter sig olika.

Plus alla varianter av ovan med olika processorer och mängder ram.

Du kan inte riktigt jämföra det mot att optimera mot två variabler
Playstation 4 och Xbox One

Skickades från m.sweclockers.com

cpu
grafikkort
minne.
nåt annat?
får det till 3 variabler.
samma som för konsol.
alla spel idag görs först för konsol sedan portas till PC.
dice frostbite motor används till multipla spel av EA idag och är den snabbaste på marknaden.

dvs finns ingen elefant.

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Inofficiell ambassadör
Skrivet av Flopper:

cpu
grafikkort
minne.
nåt annat?
får det till 3 variabler.
samma som för konsol.
alla spel idag görs först för konsol sedan portas till PC.
dice frostbite motor används till multipla spel av EA idag och är den snabbaste på marknaden.

dvs finns ingen elefant.

Jo, för grovt förenklat så om man siktar på bra prestanda över flera plattformar idag så gör man anpassningar efter hårdvaran enligt nedan.

I DX11 så gör man följande:
*Anpassar efter PS4
*Anpassar för Xbox One
*anpassar för PC - sen tar drivrutinsmakarna hand om resten.

I DX12 får de lov att göra anpassningar för:
PS4
Xbox One
PCs med polaris
PCs med pascal
PCs med Maxwell
... Med Kepler
... Med GCN 1.3

Etc etc. Om de vill att det ska funka bra på samtliga dessa kretsar.

Då är det väldigt naivt enligt mig att tro att spelmakarna kommer lägga all den tiden och pengarna som det krävs för att ha kunskapen och tiden att optimera mot varenda krets. Om vi bara skulle köra DX12 skulle nog många med impopulära kretsar i sina datorer bli lidande.

Skickades från m.sweclockers.com

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5700X3D RAM Corsair Vengance 32GB @ 36000 MHZ
GPU Gigabyte 4070 Super Gaming OC Skärm Acer X34A

Permalänk
Medlem
Skrivet av Yoshman:

Tog och ungefär en månad från att Ashes of the Singularity släpptes till dess att Nvidia fått ihop en drivare så att spelet presterade bättre i DX11 än i DX12, det trots att Oxide själv sa att detta spel använder så mycket "draw-calls" att det skulle vara en bra mätare på hur mycket bättre DX12 är på just detta. Senare har Oxide sagt att de själva aldrig trodde det Nvidia gjorde skulle vara möjligt.

Fast detta ... detta betyder ju att NVidia vill optimera sina drivrutiner för just ditt spel. Det hade varit bättre om de kunde göra det mot kända spelmotorer. De är väl kända för att bl.a byta ut shaders och likande och göra sina egna. Det betyder att alla inte kan få sina optimeringar som de vill ha, utan bara vissa spel. Då ligger alla spelutvecklare i händerna på NVidia eller AMD.

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av kelthar:

Fast detta ... detta betyder ju att NVidia vill optimera sina drivrutiner för just ditt spel. Det hade varit bättre om de kunde göra det mot kända spelmotorer. De är väl kända för att bl.a byta ut shaders och likande och göra sina egna. Det betyder att alla inte kan få sina optimeringar som de vill ha, utan bara vissa spel. Då ligger alla spelutvecklare i händerna på NVidia eller AMD.

Med ett högnivå API är en av de stora fördelarna just att man kan ta ut svängarna rätt rejält när det kommer till hur man implementerar funktionerna. Är just detta som möjliggör att dämpa svagheter och utnyttja styrkor i en specifik krets, optimeringar som naturligtvis måste göras för varje krets. Men högnivå APUer betyder det att man måste optimera drivarna för varje krets, med långnivå API betyder det att varje spel måste optimera för varje krets (totalt ohållbar matris och omöjligt att optimera för framtida kretsar).

Skriver hela tiden att DX11 bör bytas ut, idag krävs det ofta spelspecifika optimeringar just för att komma runt svagheter i hur DX11 abstraherar en GPU. Men just detta har även Metal kommit runt, trots att det är "high-level".

Vidare måste spelprogrammerare optimera vare sig de kör med låg eller högnivå APIer. Fast med högnivå APIer hamna betydligt mindre av väldigt kretsspecifika optimeringar i deras knä, det ligger i stället i programvaran mellan högnivå APIet och gränssnittet mot kretsen.

DX11/DX12/Vulkan shaders skeppas alla i ett generellt format som inte direkt kan göras på någon idag existerande GPU. Så alla drivers måste översätta denna generella kod till något som utför rätt uppgift på aktuellt GPU. Detta är helt analogt med t.ex. just-in-time-compilation av Java-bytekod.

Att Nvidia byter ut shaders är något som explicit möjliggörs av denna process, det är helt analogt med Java-virtuella-maskiner som utför s.k. hotspot optimering. Man gör först en generell version av maskinkoden, initialt samlar in statistik från hur hopp och lite andra saker går. Sedan genererar man en ny maskinkod som är ännu bättre optimerad för hur programmet rent dynamiskt uppför sig. Men på just denna punkt så skiljer sig alltså DX11, DX12 och Vulkan inte åt.

Det man måste inse är att inte ens något som är tokoptimerat för PS4 Pro, som i princip har samma GPU som RX 480, kan köras icke-modifierat på en PC med RX 480 om man använder lågnivå APIer. Det finns en rad tekniskt relevanta skillnader mellan dessa

  • En PC kommer vara GPU-bunden i nära nog 100 % av fallen, PS4 Pro kommer vara CPU-bunden oftare än GPU-bunden. D.v.s. GPGPU är vettigt i det senare fallet men inte det förra

  • Bandbredden mot VRAM är väsentligt högre i RX 480 instickskort, det påverkar vilket angreppssätt som är mest effektiv på de olika plattformarna

  • Latensen mellan CPU och GPU är långt lägre på PS4 Pro, så finns saker CPU och GPU kan dela på som vore en katastrof att använda på en PC där CPU och GPU är separerad av en PCIe-buss

Är det inte uppenbart vad problemet på PC är? Heterogen maskinvara lämpar sig uselt för lågnivå APIer. Frågan som återstår är bara hur mycket "lågnivå API" DX12/Vulkan i praktiken är.

Jag tror ändå att Apple har hamnat betydligt närmare sweet-spot med Metal än vad Microsoft och Khronos Group hamnade med DX12 och Vulkan.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

https://www.youtube.com/watch?v=zWASNajSdpg

Vad tror ni, ett handplockat kort eller stämmer detta?

Visa signatur

l Lian Li O11 Evo l Ryzen 7800x3d l Asus Rog Strix B650E-F l Lian Li Galahad SL 360 l 32GB G.Skill Trident Z5 6000Mhz cl30 CL9 l MSI 1080TI Gaming X l Samsung 970 evo plus 2tb l WD Black SN850X 2tb l Corsair TX750M 750w l

Permalänk
Medlem
Skrivet av Robban_M:

https://www.youtube.com/watch?v=zWASNajSdpg

Vad tror ni, ett handplockat kort eller stämmer detta?

Förmodligen handplockat. Är uppe i 70 grader här i stockfrekvenser under 3dmark.
https://www.youtube.com/watch?v=SvwBEfD4NzY

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Finns det någon överklockningstråd för polaris? Hade varit kul att se vad ni andra som köpt ett kort lyckats åstadkomma.

Jag har undervoltat mitt sapphire 480 4gb från 1.112 till 1.075, överklockat till 1350/2000 från 1305/1750 och ligger stabilt utan att ljudnivån drar iväg.

Visa signatur

AMD 5800X3D - Asus ROG B450-F - AMD Sapphire Vega 56 Pulse
Intel 330 180GB - 32gb DDR4 - Meshify C - beQuiet L8 530w
Panasonic 50" VT60 - Xonar Essence STX - Arcam FMJ A39 - Monitor Audio BR5 - Nintendo

Permalänk
Medlem

AMD Rolling Out New Polaris GPU Revisions With 50% Better Perf/Watt

http://wccftech.com/amd-polaris-revisions-performance-per-wat...

Permalänk
Medlem
Skrivet av Jonathanknet:

AMD Rolling Out New Polaris GPU Revisions With 50% Better Perf/Watt

http://wccftech.com/amd-polaris-revisions-performance-per-wat...

Får se hur mycket som ligger i det där. Men har hela tiden sedan lansering sett Polaris som något trasigt. Med tanke på nodkrympning och frekvensökning så är prestandan per transistor, watt och shader inte alls något vidare. Så hoppas kan man ju.

Permalänk
Avstängd
Skrivet av Jonathanknet:

AMD Rolling Out New Polaris GPU Revisions With 50% Better Perf/Watt

http://wccftech.com/amd-polaris-revisions-performance-per-wat...

Holy moly!!
det var en rejäl skillnad

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Inaktiv
Skrivet av Jonathanknet:

AMD Rolling Out New Polaris GPU Revisions With 50% Better Perf/Watt

http://wccftech.com/amd-polaris-revisions-performance-per-wat...

Det ser ju rätt lovande ut om det stämmer. Strömförbrukningen på lanserade korten var ju ändå högre än vad de verkade vara avsedda att hamna på.

Permalänk
Skrivet av Jonathanknet:

AMD Rolling Out New Polaris GPU Revisions With 50% Better Perf/Watt

http://wccftech.com/amd-polaris-revisions-performance-per-wat...

Få se om det stämmer, wccftech är inte kända för att ha helt rätt alla gånger

Men tror inte det räcker för att AMD ska gå upp tyvärr.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem

Hade absolut varit trevligt om detta stämmer och att det inte är så långt bort. Det där är ju typ det man trodde eller var tänkt att Polaris skulle vara från början.

Skickades från m.sweclockers.com

Visa signatur

SpelDator: | Asus ROG Strix XG438Q 4K 120hz| AMD Ryzen 5 5600X 3.7 GHz 35MB| B450 I AORUS PRO WIFI| MSI Radeon RX 6800 16GB | Corsair Force MP510 1920GB M.2 NVMe | Samsung EVO 860 2TB | Seagate Guardian BarraCuda 2.5 5TB| Corsair 32GB (2x16GB) DDR4 3600MHz CL18 Vengeance LPX Svart| Ghost S1 MK2| Corsair SF750 750W 80+ Platinum| Logitech MX Sound| WD My Passport V2 USB 3.0 4TB| Buffalo Mediastation Ultra-Thin Portable Blu-Ray writer| Logitech Logitech G604 Lightspeed

Permalänk
Medlem
Skrivet av Jonathanknet:

AMD Rolling Out New Polaris GPU Revisions With 50% Better Perf/Watt

http://wccftech.com/amd-polaris-revisions-performance-per-wat...

Om det stämmer så är det ju riktigt bra, isåfall så skulle den ju ligga under gtx 1060 i strömförbrukning.
Bådar även väldig gott inför lanseringen av Vega, som sägs komma ut i slutet av året.

Permalänk
Hjälpsam

Saphire Nitro 8 GB för 2590 kr på netOnNet.

Äntligen har priset nått sin rätta nivå!

Visa signatur

AMD Ryzen 7 5700X | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/51gntq | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Medlem

Najs! Dock verkar det som att det bara är Netonnet som prisdumpat.

Apropå ryktet om 50% effektivare Polaris så är min gissning att dessa kommer till de nya Macar som presenteras i veckan och sedan till lite annat bärbart och inbäddat, och slutligen möjligen till skrivbordet i samband med Vega. Tillägg: om de finns alltså.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem

http://www.nordichardware.se/test/test-fem-radeon-grafikkort-...

Nordichardware verkar tycka att det går bättre för AMD i dx12 och sämre för Nvidia och tvärtom i dx11.

Visa signatur

SpelDator: | Asus ROG Strix XG438Q 4K 120hz| AMD Ryzen 5 5600X 3.7 GHz 35MB| B450 I AORUS PRO WIFI| MSI Radeon RX 6800 16GB | Corsair Force MP510 1920GB M.2 NVMe | Samsung EVO 860 2TB | Seagate Guardian BarraCuda 2.5 5TB| Corsair 32GB (2x16GB) DDR4 3600MHz CL18 Vengeance LPX Svart| Ghost S1 MK2| Corsair SF750 750W 80+ Platinum| Logitech MX Sound| WD My Passport V2 USB 3.0 4TB| Buffalo Mediastation Ultra-Thin Portable Blu-Ray writer| Logitech Logitech G604 Lightspeed

Permalänk
Medlem
Skrivet av Bewise:

http://www.nordichardware.se/test/test-fem-radeon-grafikkort-...

Nordichardware verkar tycka att det går bättre för AMD i dx12 och sämre för Nvidia och tvärtom i dx11.

Citat:

men med stöd för DirectX 12 i majoriteten av de kommande spelen bådar det gott för AMD, men räkna inte ut Nvidia än.

Ja, majoriteten kanske kommer använda DX12 om cirkus 8 år.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Inaktiv
Skrivet av ClintBeastwood:

Ja, majoriteten kanske kommer använda DX12 om cirkus 8 år.

DX12 blir snabbt större. Marknaden kommer ha tagits över om 1-2 år. Spelutveckling tar tid.

Likt DX9 fortfarande finns kvar så lär DX11 fortfarande finnas kvar och kanske även DX9.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av anon5930:

DX12 blir snabbt större. Marknaden kommer ha tagits över om 1-2 år. Spelutveckling tar tid.

Likt DX9 fortfarande finns kvar så lär DX11 fortfarande finnas kvar och kanske även DX9.

Skickades från m.sweclockers.com

Jag skulle inte kalla 14 spel på drygt ett år för snabbt.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Inaktiv
Skrivet av ClintBeastwood:

Jag skulle inte kalla 14 spel på drygt ett år för snabbt.

DX11 gick inte direkt snabbt heller. Stöd kommer ofta efter lansering då många soel började utvecklas innan DX12 var lanserad. Om 1-2 år ser det helt annorlunda ut troligen.

Skickades från m.sweclockers.com