Anmäl dig till Roborock Challenge!

Snabbtest: Battlefield 1 i DirectX 11 och DirectX 12

Permalänk
Medlem

Det verkar som att GameGPU testat single player? Sweclockers test är i multiplayer och det är mycket mer krävande än single player

Permalänk
Medlem
Skrivet av dunis90:

Det verkar som att GameGPU testat single player? Sweclockers test är i multiplayer och det är mycket mer krävande än single player

Ja, jag tror detta är deras testslinga:

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ygd3n:

@Oggaaaa: Undrar också. Har inte direkt fattat DX12 än. Drog igång det igår när jag spelade lite Rise of the tomb raider. Ingen direkt skillnad vad jag kunde se. Vad är den direkta skillnaden mellan DX11 och DX12 den som vet ?

Microsofts hype

Permalänk
Medlem
Skrivet av wimon:

1920x1080 gissar jag?

"I full hd" alltså ja

Permalänk
Datavetare
Skrivet av Stoff3th3m4n:

Tycker mig se att den teoretiska prestandan utnyttjas bättre redan i den här titeln artikeln handlar om, när det gäller AMD-kort dvs. Minimum fps försämringen handlar sannolikt mer om hur man optimerar motorn och koden än något annat.

Exempelvis 7% förbättring av maxfps, dvs det teoretiska taket är inget att fnysa åt.

Visst. Men är rätt ofta som just dipparna kommer av CPU-bundna scenarion medan genomsnittlig FPS typiskt sätts av GPUn.

Så här blir resultatet tvärt emot det förväntade. Såg tidigare fram emot DX12/Vulkan just därför jag anser en hög lägsta FPS är långt viktigare än högre genomsnittlig FPS. Tycker upplevd prestanda betydligt mer hänger ihop med låg varians av FPS än att man får lite högre genomsnittlig FPS.

Så här långt tyvärr blivit så att DX12 har ökat variansen, ofta rätt ordentligt.

Skrivet av Ratatosk:

BF 1?
Ser man på, ett RX470 för 1800kr, spöar ett GTX1060 6GB för 2900kr.

Vi får se när fler webbplatser lägger upp resultat, enda jag hittade utöver den ryska webbplatsen och SweClockers är denna. Kan inte ett ord holländska, så har ingen aning om vad som står i texten

Där har man hårdtestat just RX 480 och man får liknande resultat som SweClockers, d.v.s. DX11 presterar bättre än DX12 på detta kort. Notera att det är just där DX12 borde ge som mest där det faller igenom som hårdast, d.v.s. Full HD Medium. Ju högre FPS man får desto mer flyttas flaskhalsen till CPU-delen.

I högre upplösningar kvittar det normalt om man kör DX11 eller DX12, i det läget är flaskhalsen nästan enbart rå GPU-kraft.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Visst. Men är rätt ofta som just dipparna kommer av CPU-bundna scenarion medan genomsnittlig FPS typiskt sätts av GPUn.

Så här blir resultatet tvärt emot det förväntade. Såg tidigare fram emot DX12/Vulkan just därför jag anser en hög lägsta FPS är långt viktigare än högre genomsnittlig FPS. Tycker upplevd prestanda betydligt mer hänger ihop med låg varians av FPS än att man får lite högre genomsnittlig FPS.

Så här långt tyvärr blivit så att DX12 har ökat variansen, ofta rätt ordentligt.

Vi får se när fler webbplatser lägger upp resultat, enda jag hittade utöver den ryska webbplatsen och SweClockers är denna. Kan inte ett ord holländska, så har ingen aning om vad som står i texten

Där har man hårdtestat just RX 480 och man får liknande resultat som SweClockers, d.v.s. DX11 presterar bättre än DX12 på detta kort. Notera att det är just där DX12 borde ge som mest där det faller igenom som hårdast, d.v.s. Full HD Medium. Ju högre FPS man får desto mer flyttas flaskhalsen till CPU-delen.
http://i.imgur.com/2R5lHz4.png
I högre upplösningar kvittar det normalt om man kör DX11 eller DX12, i det läget är flaskhalsen nästan enbart rå GPU-kraft.

Jo absolut, men med tanke på att "ansvaret" långt mer ligger på spelutvecklarna idag bör man ju ge det lite tid innan det fördöms totalt Det kan mycket väl bli så att det kommer finfina spelmotorer där själva DX12-optimeringen blir betydligt enklare än vad den är idag.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Datavetare
Skrivet av Stoff3th3m4n:

Jo absolut, men med tanke på att "ansvaret" långt mer ligger på spelutvecklarna idag bör man ju ge det lite tid innan det fördöms totalt Det kan mycket väl bli så att det kommer finfina spelmotorer där själva DX12-optimeringen blir betydligt enklare än vad den är idag.

Är självklart fullt möjligt.

Är ändå oroande att vi mer en ett år efter release inte verkar ha något spel som kan påvisa en relevant förbättring med DX12, tvärt om är det en försämring i de flesta fall. Det mot ett DX11 som helt uppenbart är ett föråldrat API givet hur moderna GPUer fungerar.

Det man pratade mest om gällande förbättringar i DX12/Vulkan var just att det skulle sänka kostnaden för "draw-calls". Finns ju praktiska bevis på att så också skett, t.ex. så pekar ju 3DMarks "draw-call" test på att kostnaden för draw-call i DX12 är upp till en faktor 10 billigare. Ändå ser vi ett rätt trist utfall så här långt.

Man ska aldrig säga aldrig, men mycket pekar på att man faktiskt lyckades optimera det man ville optimera. Det rätt rejält. Men det verkar rätt mycket som om just detta inte var en speciellt relevant flaskhals på PC.

Angående optimering: även om DX12/Vulkan skulle fungera lysande har "low-level" APIer där optimeringarna ligger i programmet ett stort problem. Hur optimerar man för framtida GPUer? Ligger mer av optimerings-jobbet i drivaren är det "bara" för tillverkaren att svänga ihop en bra drivare, spelutvecklarna kan i det läget mer fokusera på att optimera på en generell nivå.

Är här jag har svårt att se hur ett "low-level" API någonsin kan vara en bra idé på PC. På konsol, självklart. Men på PC?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Prestandatestade bf1 betan ganska mycket när de va open beta, fick något högre fps i dx12 med 280x men med en ökad input lag vilket inte alls var trevligt.

Skickades från m.sweclockers.com

Permalänk
Skrivet av Söderbäck:

Själv hade jag nog blivit gladare av motsatsen.
Alltså om det faktiskt fanns så stora prestandafördelar att hämta.

Inte jag, eftersom jag vägrar installera Windows 10.

Om Vulkan har samma prestandaförbättringar, då däremot ska jag jubla.

Permalänk
Skrivet av Yoshman:

Det man pratade mest om gällande förbättringar i DX12/Vulkan var just att det skulle sänka kostnaden för "draw-calls". Finns ju praktiska bevis på att så också skett, t.ex. så pekar ju 3DMarks "draw-call" test på att kostnaden för draw-call i DX12 är upp till en faktor 10 billigare. Ändå ser vi ett rätt trist utfall så här långt.

Vore inte första gången en tillverkare trixat med drivrutinerna för att lura ett benchmark.

Permalänk
Medlem
Skrivet av BerraJobb:

Varför inget 980 Ti i testet ?
Dock tror jag mina två i sli kommer fungera bra i både 4K och 1440p.

1070 är exakt snarlik ett 980Ti.

Visa signatur

Fractal Design Pop XL Air RGB | ASRock Z690 Taichi | i5-12600k | Corsair 32GB (2x16GB) DDR5 6000MHz CL30 | Gigabyte RTX 2080 Gaming OC

Nintendo Switch | PlayStation 5 +PS4 Pro | Xbox Series X + One X
Min FZ Profil

Permalänk
Medlem

980ti är ju inte här?

Visa signatur

AMD Ryzen 5 5600X | ASUS GeForce RTX 2080 8GB DUAL OC | Corsair Vengeance LPX Black 16GB (2x8GB) / 3200MHz | MSI B450 TOMAHAWK - ATX / B450 | Fractal Design Define C - Svart | Corsair RM750X V2 750W 80+ Gold | Noctua NH-D15 |

Permalänk
Medlem

DX12 kräver mer internminne se https://www.youtube.com/watch?v=iDTqcx4TQ1A

SÅ jag tror att DX12 inte levererar max när testdatorn endast har 8GB ram (jag tror SWEclockers missade denna lilla detaljen eller??)

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Yoshman:

Jag försöker ju lägga upp bollen för smash där du rejält kan dunka in den ovh visa att jag har fel. Jag vill ha fel på denna punkt.

Så igen: nämn ett enda spel där något kort presterar väsentligt bättre än vad Maxwell/Pascal gör i DX11, det tack vare DX12 (d.v.s. peka inte på Hitman, även om AMD presterar relative bättre där så presterar AMD-korten än bättre i DX11 än i DX12).

För denna gången så ska jag svara. Kommande recensioner och spel kommer nog få dig att ändra uppfattning om inte testerna jag ska länka till längre ner gör det. Låt oss se och blicka över några saker först:

Du verkar totalt ignorera att DX12 mer eller mindre är framtaget för att lyfta bort alla tidigare restriktioner (GCN och Mantle+konsol APU'erna har vi att tacka här till initiativet). Dessa restriktioner märks inte hos nvidia-GPU'er då det det i grunden är en typisk DX11 arkitektur som nyttjar sin (relativt svaga) beräkningskapacitet, och inte nog med det, utan även i många spel också en gameworks miljö med frenetiskt kodade drivers för att få det att fungera såpass bra. Det är inte några rader kod... Det är en ren mardröm och något som kostat nvidia multum. Eftersom du gillar att programmera så utgår jag ifrån att du vet det också. AMD fungerar dock tillfredsställande i många DX11 spel, men fokuserar desto hårdare på framtiden och konstruera GPU'er som är beräkningsmonster.

Exempel på helt nytt test i DX11 Battlefield 1 där Fury X går om/precis matchar GTX1070 för att visa att korten inte är "handikappade" i DX11 miljö som du många gånger fått det att låta:

Vad som är möjligt med DX12 är en gamechanger. CPU skalning, massivt minskad overhead och funktioner som SIF som finns i AMD's GCN GPU'er men också async compute. Hur väl man implementerar det är en annan sak. Att man lägger större ansvar hos spelproducenterna är på tiden. Specifik vendorcode och optimeringar av vars arkitektur funktioner. Vi kan dock utgå ifrån att dom utnyttjar dom fördelar genom en low-level API som DX12 (och Vulkan) vilket vi fått se prov på i Doom (och fler spel/kommande spel).

Sedan DX12 blev officiellt så har det gått relativt snabbt med tanke på hur länge tidigare API'er har hållt i sig och hur tröga övergångarna har varit. Den här gången är AMD i princip ensamma om att vända hela industrin till low-level API. Nvidia måste sätta sig vid ritbordet och ta fram en helt ny arkitektur för att bli av med dessa problem som dom dras med. Vi har kvar samma 31+1 kö sedan Kepler gen.2. Lastbalansering i Pascal är bara ett plåster på såret med Maxwell i grunden. Att allokera beräkningskluster för att köra data+grafik är bara ett desperat försök för att hänga på AMD's tåg, och ett relativt dumt drag då det redan som vi väl känner till är en GPU med hög duty iom dess simpla design/DX11 grund.

DX12 tester

Vi fick vi se Ashes of Singularity och det är så uttjatat så jag tänker inte ens ta upp det spelet. Vi kan istället titta på färska tester som först nu sista månaderna har tagit fart, speciellt BF1 som du var inne på. Jag vill också poängtera att BF1 inte utnyttjar SIF hos AMD-gpu'er, utan bara async compute, vilket du tidigare uttalat dig om att det inte ger så mycket. Vi börjar med BF1:

1080p

1440p

Vi kan härmed konstatera att:

  • Fury X lägger sig mellan GTX1070 och GTX1080 i både 1080p och 1440p

  • RX470 utpresterar både GTX1060 och GTX980

Deus Ex: Mankind Divided

1080p

1440p

Vi kan härmed konstatera att:

  • Fury X presterar över GTX1080 i 1080p och jämt i 1440p, endast dess överklockade variant går förbi

  • 390X går om GTX1070...

  • RX470 passerar både GTX1060 och GTX980

Total War: Warhammer

1080p

1440p

Vi kan härmed konstatera att:

  • Fury X ligger mellan GTX1070 och GTX1080

  • RX480 passerar GTX1060 och GTX980

Hitman (ja det är ett spel och fungerar utmärkt på bägge aktörer)

1080p

1440p

Vi kan härmed konstatera att:

  • Fury X ligger mellan GTX1070 och GTX1080

  • RX480 passerar GTX1060 och GTX980

Tar Doom när vi ändå håller på med low-level API'er

1440p

En liten notis till dig från utvecklare som är så emot low-level API'er:

https://twitter.com/idSoftwareTiago/status/738409682415411200
https://twitter.com/idSoftwareTiago/status/738428331788378112
https://twitter.com/dankbaker/status/738215078747635714

Oles Shishkovstov på A4 games:

No, it's important. All the dependency tracking takes a huge slice of CPU power. And if we are talking about the multi-threaded command buffer chunks generation - the DX11 model was essentially a 'flop', while DX12 should be the right one.

Ett typiskt beteende hos Pascal är också att ju fler SP's du har aktiva i arkitekturen, ju mer tjänar dom på DX12 för att förlusten blir mindre med dess partitionering som dom gör av SP's/SM's. Det förklarar precis det jag beskrev innan, att alla SP's är fullt upptagna av att köra grafik. Det finns en stor och enda anledning till varför dom måste göra det, och det är för att kunna köra async compute vilket dom oftast tappar på istället. Ett fruktansvärt ineffektivt lösning och knappast en lika nativ lösning som på GCN där varje enskild SP/CU kan räkna på grafik+data i princip kompromisslöst och med hjälp av ACE, där nvidia låter sig göra samma jobb genom sin driver. Jösses... Du gör liknelser med flertrådsteknologi hos processorer. Där snackar vi om att parallellismen är patetiskt i förhållande till en GPU, men sett till en tråd per beräkningsenhet så kan nyttan av flertrådsteknologi i sällsynta fall vara obefintlig. I det fallet som när du kör en liknelse med att köra Linpack på en CPU-kärna så visst, men det finns extremt ofta bubblor i en CPU pipeline, men speciellt i en GPU.

Skillnaden mot en CPU är att du har 4096SP's i en Fury X GPU. Många av dessa är som bekant inte upptagna och med det sagt finns det massor av beräkningskapacitet som inte har använts/används vilket det inte gör på nvidia-kort av samma rang som snarare har ett underskott på beräkningskapacitet, men det tycker du inte, för det är en lag på att en GPU ska vara konstruerad efter DX11, och allt med unified shaders och parallellism kan vi bara skrota. På vilket sätt man nu inte ser att det är välkomnande att inte låta dessa sträcka på benen förstår jag inte Resultaten är som man ser rätt rejäla och mer kommer.

Fury korten är snart 1½år gamla och gamle 290 (390) serien presterar sjukt bra för sin ålder/pris och som jag länge sagt är starka arkitekturer som bromsats hårt av DX11/gameworks, vilket vi ser är ett faktum av resultatet från DX12 titlarna ovan.

DX12 och Vulkan behöver mer mognad, drivrutiner förbättras i snabb takt. Detta är nvidia's nya arkitektur mot AMD's gamla på en urgammal tillverkningsnod. Blir desto mer intressant att se hur det kommer se ut när Vega lanseras och fler och fler DX12 spel kommer, bättre drivrutiner och uppdaterade patchar för att lägga till funktioner som SIF vilken också fungerar i DX11 titlar om utvecklaren vill.

Tack till initiativet GPUOpen!

Jag skulle kunna hålla på hur länge som helst men här är tiden slut. Kan du inte se det jag och många andra ser så är det lönlöst att diskutera som jag redan gjort flertalet gånger. Vi har samma hårdvara i alla dagens konsoler som i en PC med AMD grafikkort. Bevisligen finns det stora vinster att hämta och på samma arkitektur så tar vi spelen till PC och konsol närmare varandra vilket är fantastiskt och på tiden efter alla fruktansvärda portar genom tiderna. Detta verkar vara det som oroar dig då det sätter ett enormt gruskorn i nvidia's maskineri. Ska tilläggas att jag förespråkar framgången av Vulkan, men DX12 är mer än välkomnande också.

Visa signatur

[ AMD 9800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Linux EndeavourOS ][ LG 34GN850 ]

Permalänk
Medlem
Skrivet av sesese:

DX12 kräver mer internminne se https://www.youtube.com/watch?v=iDTqcx4TQ1A

SÅ jag tror att DX12 inte levererar max när testdatorn endast har 8GB ram (jag tror SWEclockers missade denna lilla detaljen eller??)

Ja, fast jävlar vilket oflyt det är i DX12 i den videon. Man kan ju verkligen se frametime variationerna i DX12. DX11 är ju butter smooth i jämförelse. Även om DX 12 hade visat +100fps gentemot DX11 så spelar det ju ingen som helst roll med det hackandet.

Jag blir smått förvånad med tanke på att DICE förmodligen haft mest tid och erfarenhet med lågnivå API som detta (tänker främst på Mantle). Gears of war 4 är iofs en annan typ av spel, men i det spelet fungerar ju DX12 implementationen hur smutt som helst. Shame on DICE

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk

Jag hoppas Dx12 fortsätter att floppa, och att Vulkan slår istället.
För när det blir dags att köpa nästa dator och Microsoft har blockerat möjligheten att installera Windows 7, blir det Linux -- och Dx12 kommer aldrig Microsoft att släppa till Linux, eftersom spel är Windows sista övertag.

Permalänk
Medlem

Folk säger att Nvidia är the way to go?
Jämför man 980 och Fury (som i princip låg på samma pris) så har Fury högre medel FPS men lite lägre minimum FPS i DX11. Summa sumarum så är de typ lika bra dvs så där är de ju likvärdiga. Dock annorlunda med 480 vs 1060 där 1060 vinner stabilt mot 480. Dock så slår ju r9 390 gtx 970 som vanligt så där är AMD före... Skulle säga det är ganska jämt!

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Datavetare
Skrivet av Enigma:

För denna gången så ska jag svara. Kommande recensioner och spel kommer nog få dig att ändra uppfattning om inte testerna jag ska länka till längre ner gör det. Låt oss se och blicka över några saker först:

Du verkar totalt ignorera att DX12 mer eller mindre är framtaget för att lyfta bort alla tidigare restriktioner (GCN och Mantle+konsol APU'erna har vi att tacka här till initiativet). Dessa restriktioner märks inte hos nvidia-GPU'er då det det i grunden är en typisk DX11 arkitektur som nyttjar sin (relativt svaga) beräkningskapacitet, och inte nog med det, utan även i många spel också en gameworks miljö med frenetiskt kodade drivers för att få det att fungera såpass bra. Det är inte några rader kod... Det är en ren mardröm och något som kostat nvidia multum. Eftersom du gillar att programmera så utgår jag ifrån att du vet det också. AMD fungerar dock tillfredsställande i många DX11 spel, men fokuserar desto hårdare på framtiden och konstruera GPU'er som är beräkningsmonster.

Exempel på helt nytt test i DX11 Battlefield 1 där Fury X går om/precis matchar GTX1070 för att visa att korten inte är "handikappade" i DX11 miljö som du många gånger fått det att låta:

http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/new/b1_2560.png

Vad som är möjligt med DX12 är en gamechanger. CPU skalning, massivt minskad overhead och funktioner som SIF som finns i AMD's GCN GPU'er men också async compute. Hur väl man implementerar det är en annan sak. Att man lägger större ansvar hos spelproducenterna är på tiden. Specifik vendorcode och optimeringar av vars arkitektur funktioner. Vi kan dock utgå ifrån att dom utnyttjar dom fördelar genom en low-level API som DX12 (och Vulkan) vilket vi fått se prov på i Doom (och fler spel/kommande spel).

Sedan DX12 blev officiellt så har det gått relativt snabbt med tanke på hur länge tidigare API'er har hållt i sig och hur tröga övergångarna har varit. Den här gången är AMD i princip ensamma om att vända hela industrin till low-level API. Nvidia måste sätta sig vid ritbordet och ta fram en helt ny arkitektur för att bli av med dessa problem som dom dras med. Vi har kvar samma 31+1 kö sedan Kepler gen.2. Lastbalansering i Pascal är bara ett plåster på såret med Maxwell i grunden. Att allokera beräkningskluster för att köra data+grafik är bara ett desperat försök för att hänga på AMD's tåg, och ett relativt dumt drag då det redan som vi väl känner till är en GPU med hög duty iom dess simpla design/DX11 grund.

DX12 tester

Vi fick vi se Ashes of Singularity och det är så uttjatat så jag tänker inte ens ta upp det spelet. Vi kan istället titta på färska tester som först nu sista månaderna har tagit fart, speciellt BF1 som du var inne på. Jag vill också poängtera att BF1 inte utnyttjar SIF hos AMD-gpu'er, utan bara async compute, vilket du tidigare uttalat dig om att det inte ger så mycket. Vi börjar med BF1:

1080p
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/new/b1_1920_12.png

1440p
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/new/b12560_12.png

Vi kan härmed konstatera att:

  • Fury X lägger sig mellan GTX1070 och GTX1080 i både 1080p och 1440p

  • RX470 utpresterar både GTX1060 och GTX980

Deus Ex: Mankind Divided

1080p
http://www.guru3d.com/index.php?ct=articles&action=file&id=25647&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

1440p
http://www.guru3d.com/index.php?ct=articles&action=file&id=25648&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Vi kan härmed konstatera att:

  • Fury X presterar över GTX1080 i 1080p och jämt i 1440p, endast dess överklockade variant går förbi

  • 390X går om GTX1070...

  • RX470 passerar både GTX1060 och GTX980

Total War: Warhammer

1080p
http://www.guru3d.com/index.php?ct=articles&action=file&id=25652&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

1440p
http://www.guru3d.com/index.php?ct=articles&action=file&id=25653&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Vi kan härmed konstatera att:

  • Fury X ligger mellan GTX1070 och GTX1080

  • RX480 passerar GTX1060 och GTX980

Hitman (ja det är ett spel och fungerar utmärkt på bägge aktörer)

1080p
http://www.guru3d.com/index.php?ct=articles&action=file&id=25644&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

1440p
http://www.guru3d.com/index.php?ct=articles&action=file&id=25645&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Vi kan härmed konstatera att:

  • Fury X ligger mellan GTX1070 och GTX1080

  • RX480 passerar GTX1060 och GTX980

Tar Doom när vi ändå håller på med low-level API'er

1440p
https://www.techpowerup.com/img/16-07-13/45a.jpg

En liten notis till dig från utvecklare som är så emot low-level API'er:

https://twitter.com/idSoftwareTiago/status/738409682415411200
https://twitter.com/idSoftwareTiago/status/738428331788378112
https://twitter.com/dankbaker/status/738215078747635714

Oles Shishkovstov på A4 games:

No, it's important. All the dependency tracking takes a huge slice of CPU power. And if we are talking about the multi-threaded command buffer chunks generation - the DX11 model was essentially a 'flop', while DX12 should be the right one.

Ett typiskt beteende hos Pascal är också att ju fler SP's du har aktiva i arkitekturen, ju mer tjänar dom på DX12 för att förlusten blir mindre med dess partitionering som dom gör av SP's/SM's. Det förklarar precis det jag beskrev innan, att alla SP's är fullt upptagna av att köra grafik. Det finns en stor och enda anledning till varför dom måste göra det, och det är för att kunna köra async compute vilket dom oftast tappar på istället. Ett fruktansvärt ineffektivt lösning och knappast en lika nativ lösning som på GCN där varje enskild SP/CU kan räkna på grafik+data i princip kompromisslöst och med hjälp av ACE, där nvidia låter sig göra samma jobb genom sin driver. Jösses... Du gör liknelser med flertrådsteknologi hos processorer. Där snackar vi om att parallellismen är patetiskt i förhållande till en GPU, men sett till en tråd per beräkningsenhet så kan nyttan av flertrådsteknologi i sällsynta fall vara obefintlig. I det fallet som när du kör en liknelse med att köra Linpack på en CPU-kärna så visst, men det finns extremt ofta bubblor i en CPU pipeline, men speciellt i en GPU.

Skillnaden mot en CPU är att du har 4096SP's i en Fury X GPU. Många av dessa är som bekant inte upptagna och med det sagt finns det massor av beräkningskapacitet som inte har använts/används vilket det inte gör på nvidia-kort av samma rang som snarare har ett underskott på beräkningskapacitet, men det tycker du inte, för det är en lag på att en GPU ska vara konstruerad efter DX11, och allt med unified shaders och parallellism kan vi bara skrota. På vilket sätt man nu inte ser att det är välkomnande att inte låta dessa sträcka på benen förstår jag inte Resultaten är som man ser rätt rejäla och mer kommer.

Fury korten är snart 1½år gamla och gamle 290 (390) serien presterar sjukt bra för sin ålder/pris och som jag länge sagt är starka arkitekturer som bromsats hårt av DX11/gameworks, vilket vi ser är ett faktum av resultatet från DX12 titlarna ovan.

DX12 och Vulkan behöver mer mognad, drivrutiner förbättras i snabb takt. Detta är nvidia's nya arkitektur mot AMD's gamla på en urgammal tillverkningsnod. Blir desto mer intressant att se hur det kommer se ut när Vega lanseras och fler och fler DX12 spel kommer, bättre drivrutiner och uppdaterade patchar för att lägga till funktioner som SIF vilken också fungerar i DX11 titlar om utvecklaren vill.

Tack till initiativet GPUOpen!

https://i2.wp.com/techaltar.com/wp-content/uploads/2016/05/IMG_2835.jpg?resize=768%2C432&ssl=1

Jag skulle kunna hålla på hur länge som helst men här är tiden slut. Kan du inte se det jag och många andra ser så är det lönlöst att diskutera som jag redan gjort flertalet gånger. Vi har samma hårdvara i alla dagens konsoler som i en PC med AMD grafikkort. Bevisligen finns det stora vinster att hämta och på samma arkitektur så tar vi spelen till PC och konsol närmare varandra vilket är fantastiskt och på tiden efter alla fruktansvärda portar genom tiderna. Detta verkar vara det som oroar dig då det sätter ett enormt gruskorn i nvidia's maskineri. Ska tilläggas att jag förespråkar framgången av Vulkan, men DX12 är mer än välkomnande också.

Det du hela tiden undviker i detta är att jämföra DX12 resultaten mot DX11. Du visar att AMD presterar relativt sett bättre mot Nvidia när båda kör DX12, men är det den mest relevanta jämförelsen?

Nej, den mest relevanta jämförelsen är när man tar den variant som presterar bäst. Om vi tar BF1 först eftersom det är vad artikeln detta är en tråd till handlar om.

BF1
Du visar endast att AMD relativt sett presterar bättre än Nvidia, det var inte vad denna diskussion handlade om. Det var om DX12 ger en förbättring. Både SweClockers mätningar och den jämförelse jag länkar ovan visar att både AMDs och Nvidias GPUer presterar bättre i denna titel med DX11. I Nvidias fall är både genomsnittlig och lägsta FPS bättre, i AMDs fall är det främst lägsta FPS och därmed upplevd prestanda som är bättre i DX11.

Deus Ex
Åter igen missar du helt vad diskussionen handlar om. Vi vet redan att denna titel använder samma motor som Hitman och det är därför en titel som starkt favoriserar AMD. Men frågan var om DX12 ger en fördel mot DX11. Vilket den inte gör vare sig för AMD (betydligt högre FPS-varians) eller Nvidia (allt är bättre i DX11), något som t.ex. the TechReports mätningar visar.

Total War: Warhammer
Även här missar du att jämförelsen är mellan DX11 och DX12, i stället gör du det hela till ett AMD vs Nvidia krig...

ComputerBase testar numera alla spel både i DX11 och DX12, man visar sedan resultatet för AMD resp. Nvidia med den variant som ger bäst prestanda. Och de fick att DX11 presterar bättre både för AMD och Nvidia, notera att Nvidias kort lyfter sig rätt rejält jämfört med diagrammen du listar

Hitman
Här konstaterar ComputerBase att AMD presterar bättre med DX12 medan Nvidia presterar bäst med DX11, så det är den relevanta jämförelsen.

Så vad du visat är att AMD suger lite mindre med DX12 än Nvidia. Men frågan handlar om att visa något fall där DX12 faktiskt ger en signifikant förbättring mot DX11. Doom blir därför också helt irrelevant då det saknas en jämförelse mot DX11. De två andra titlarna som har Vulkan stöd (DOTA2 och Talos Principle) har även DX11 stöd, där presterar DX11 i de flesta fall bäst.

Edit: Angående uttalandena från utvecklare. Har du själv ens klickat och läst vad det står? Gjorde det själv först nu och de två första pratar om konsoler.

Har gång på gång skrivit att "low-level" APIer absolut ger mervärde på konsoler, detta då det handlar om extremt homogena plattformar. Vilket då står i kontrast mot PC som är en extremt heterogen plattform.

Den sista pratar om "async compute" (som vanligt är det man menar "parallel compute" och inte "async compute"). Det är något som är precis lika möjligt att göra en ett högnivå API som i ett lågnivå API.

Att man inte kan göra det i DX11 är enbart för att DX11 har en dålig abstraktion av en modern GPU. Tekniken kan t.ex. användas i Metal som är mer som ett modernt DX11 än ett DX12 i sin abstraktion.

D.v.s jag invänder inte mot "low-level" APIer i allmänhet, utan mot att de används i lägen där maskinvaran inte är homogen.

Edit2: lite mer jämförelser för Total War: Warhammer där man direkt ser DX11 vs DX12 (tänk på att detta är en Gaming Evolved titel)
SweClockers

Dold text

PC Gamer

Dold text

I båda fallen står sig AMDs kort bra om man jämför DX12 vs DX12, men jämför man i stället det API respektive kort presterar bäst i ser man bl.a. att 980 matcha Fury.

Jämför man DX11 mot DX11 är det uppenbart att AMDs kort underpresterar i denna titel mot hur det brukar se ut. Och vi pratar om en "Gaming Evolved Titel", känns som AMD helt skiter att optimera för DX11 när det finns DX12 stöd. Det hade kanske varit vettigt om man fått riktigt bra prestanda med DX12, men ställer man det i relation till Nvidia DX11 så är DX12 "meh" även på AMDs kort.

En titel som inte nämndes var Ashes of the Singularity. Ett "spel" som i praktiken är ett teknikdemo för DX12 (enda program som ser en större vinst av "async shaders" är 3DMark TimeSpy, i AoS får man upp till 10 % boost från detta medan TimeSpy ser upp till 15 %).

Initialt presterade faktiskt även Nvidias kort bättre i DX12, men efter man släppte en drivrutin med DX11 anpassningar för detta spel klev DX11 prestand om. Och även här presterar Nvidias kort riktigt bra jämfört med AMDs kort relativt hur det ser ut i genomsnitt i andra titlar, d.v.s. ett 1060/DX11 presterar något bättre än 480/DX12.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av Enigma:

Sedan DX12 blev officiellt så har det gått relativt snabbt med tanke på hur länge tidigare API'er har hållt i sig och hur tröga övergångarna har varit. Den här gången är AMD i princip ensamma om att vända hela industrin till low-level API. Nvidia måste sätta sig vid ritbordet och ta fram en helt ny arkitektur för att bli av med dessa problem som dom dras med. Vi har kvar samma 31+1 kö sedan Kepler gen.2. Lastbalansering i Pascal är bara ett plåster på såret med Maxwell i grunden. Att allokera beräkningskluster för att köra data+grafik är bara ett desperat försök för att hänga på AMD's tåg, och ett relativt dumt drag då det redan som vi väl känner till är en GPU med hög duty iom dess simpla design/DX11 grund.

Tar denna separat för du har rätt i vissa detaljer men missar ändå totalt helheten.

Anledningen att Nvidia inte ser någon relevant vinst med saker som "async shaders" är för att man har en design som verkar kunna hålla sig sysselsatt trots bristerna i DX11.

Om vi jämför det du säger med CPUer kanske min invändning mot det du skriver blir mer klart.

Den Intel CPU som fått överlägset mest boost från Hyperthreading är första generationens Atom. Orsaken är att designen är så brutalt ineffektiv på att fylla sina beräkningsenheter att det finns massor med oanvända resurser som en andra tråd kan använda.

Tror ingen argumenterar för att det gör första generationens Atom till en bättre design än Core...

Ett annat exempel är Bulldozer. Designen presterar OK när alla CPU-trådar används, men uppdelning man gjorde av beräkningsenheter gör att den presterar öken när få trådar används. Effekten är att total mängd arbete som utförs av två CPU-trådar per modul är relativt sett betydligt högre än den mängd arbete som utförs när en tråd används jämfört med hur det ser ut på Intels Core modeller med HT.

Gör det Bulldozer till en bättre design? Nej, det är en sämre design då den presterar sämre i majoriteten av fallen.

Jämför kapacitet på RX 480 och GTX 1060. Oavsett om man jämför antal transistorer, effekt kretsen använder eller teoretisk beräkningskraft så ska RX 480 prestera signifikant bättre än 1060.

I praktiken presterar dessa kort likvärdigt i DX12 medan 1060 presterar bättre i DX11. Så är det verkligen Nvidia som har problem med sin design?

Kostnaden att tillverka kretsen är rätt proportionell mot kretsens storlek, jämför var Pascal ligger prestandamässigt när man tar en ungefär lika stor krets.

Om (och jag tror det är ett väldigt stort om) VR tar fart, vem har då mest arbete vid ritbordet?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Ratatosk:

Kan göra en hel del, mer minne låter fler filer ligga kvar i cachen, även med en snabb SSD tar det tid att läsa in dem igen, sådant ger hack.

edit 2
Här ser man att nästan allt minne används i en maskin med 8 GB det gör att nästan inget kan användas som diskcache eller delat minne för grafikkortet.
http://gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/b1_ram2.png

Jag har länge varit en minnesjunkie, mycket atbetsminne gör att allt går mjukare och flyter bättre.
Man skall inte stirra sig blind på "minnesanvändningen", minne som används till cache är också ett användande av minnet och ett viktigt sådant.
edit 1
Detta test ger ett hellt annat resultat än Sweclockers, här vinner RX480 rejält över GTX1060.
https://forums.anandtech.com/threads/battlefield-1-benchmarks...

http://gamegpu.com/action-/-fps-/-tps/battlefield-1-test-gpu
edit 3
Intel 2600K presterar fortfarande bra i DX12, men även AMD FX8350 går förvånansvärt bra.
http://www.gamegpu.com/images/stories/Test_GPU/Action/Battlefield_1/b1_proz_12.png

Hmm...... Ser ut som att Sweclockers 'råkade' välja en minnesmängd som var till fördel för Nvidia i det här fallet, va otippat.

Permalänk
Medlem

Detta finns på varenda en bild:

Artefakter?

Visa signatur

There is grandeur in this view of life, with its several powers, having been originally breathed into a few forms or into one; and that whilst this planet has gone cycling on according to the fixed law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and are being, evolved.

Permalänk
Medlem
Skrivet av Equilibrium:

Detta finns på varenda en bild:

http://i.imgur.com/oxAgr2k.png

Artefakter?

Detta finns i BF4 också så konstigt du inte sett det tidigare.. eller bra kanske, beror sig på hur man ser det.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av ClintBeastwood:

https://i.redditmedia.com/JXTJrizWKZnTAgy4w99F2pNsgUkODqPlVsx9mSmMUMI.jpg?w=1024&s=29c9568d9bf85a9455f9740c7ae4e61e
Detta finns i BF4 också så konstigt du inte sett det tidigare.. eller bra kanske, beror sig på hur man ser det.

Aha!

Visa signatur

There is grandeur in this view of life, with its several powers, having been originally breathed into a few forms or into one; and that whilst this planet has gone cycling on according to the fixed law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and are being, evolved.

Permalänk
Medlem
Permalänk
Medlem
Skrivet av Jonathanknet:

Detta tycker jag är mest intressant:
https://uk.hardware.info/reviews/7020/7/battlefield-1-review-...

Tråkigt att inte multiplayer används som test istället, där får processorn jobba mer så det kanske hade blivit helt andra resultat för DX12 där?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Varför alltid; 2 560 x 1 440 pixlar .. 90% sitter la ändå på 1080p

Visa signatur

CPU: 5800x3d
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Skrivet av hakd:

Varför alltid; 2 560 x 1 440 pixlar .. 90% sitter la ändå på 1080p

För att det i många titlar inte går att testa i dem upplösningen, kör du samma med två titan (räcker nog med ett i vissa spel) kommer CPUn vara flaskhals och det går då inte att dra korrekta slutsatser.

Skickades från m.sweclockers.com

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, RX 5700 XT 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W

Permalänk
Medlem
Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X3D | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury 2x16GB 3600 CL 16 Renegade | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | Xiaomi G34WQi | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair HS65 |

Permalänk

DX11 vs DX12

Har testat att spela både dx11 o dx12 och jag upplever att det hackar mer för mig när jag spelar dx12. I dx11 flyter det på bra.

Mina specs: 4790K, msi gtx 1060 6gb, 16 gb ram o kör spelet på en mekanisk hårddisk.

Nån som har upplevt samma? Kanske nvidia behöver komma med nya drivrutiner för bf1 dx 12?

Har 1080 p och 144 hz

Permalänk
Medlem
Skrivet av Wiinis:

Fungerar inte Vulkan på samma sätt?
Kommer väl inte magiskt bli bättre för att du använder det?

"Samma sätt" nej, men de har liknande mål: Att vara ett modernt low-level API.
Där Vulkan har lyckats och DX12 fungerar sämre än sin föregångare.

Visa signatur

CPU: AMD® Ryzen™ 7 1700 @ 4 GHz 1.35V
MB: msi® X370 GAMING PRO CARBON
GPU: XFX Radeon™ RX Vega⁵⁶
RAM: G.SKILL Trident Z 3200MHz CL14 16 GB
Chassi/PSU: Cooltek W2 / Corsair® AX860 80+ Platinum