Snabbtest: Battlefield 1 Beta i DirectX 11 och DirectX 12

Permalänk
Medlem

Anledningarna till att nergradera till Windows 10 (från den mycket bättre 7:an) blir bara färre och färre. Hmmm... finns det någon anledning alls. Näe.

.

Visa signatur

AMD Thunderbird 1.33 GHz (133 MHz Bus), Epox 8K7A, 1 x 256MB Corsair PC2100 DDR SDRAM, 20.5GB 7200 RPM Western Digital EIDE, Visiontek GeForce 3

Permalänk
Medlem
Skrivet av Sebban84:

Jag hade samma problem i natt fast med den förra drivisen. Körde DDU och nyaste drivisen, och stängde även av DDR så att inte grafikkortet jobbade på max längre. Vet inte vad som löste det, men det har löst sig iaf

Installerade samma nya drivrutiner igen fast denna gången som "clean install" och nu så fungerar det igen!

Visa signatur

Citera för svar.

Permalänk
Inaktiv

Många här är som vanligt snabba med att dömma ut DirectX 12 och samtidigt passa på att tömma ut lite av sitt hat av Windows 10. Det man bör tänka på är att det handlar om en beta där fokuset inte är att kolla så att DirectX 12-imolemrntationen fungerar utan snarare kontrollera att mjukvaran öht fungerar på den blandning av komponenter som sitter i kundernas datorer och, framförallt då PS4 och XBO också testas, att servrar och allt mellan kunden och dessa också fungerar.

Vänta med eventuellt dömmande tills spelet är lanserat, en nyare build används där DirectX 12 fungerar som tänkt. Prioriteten är uppenbart låg att ha polerade features som bara fungerar för en väldigt liten del av kundgruppen. Borde vara rätt uppenbart för de flesta tycker jag.

Det sagt, någon som hittat några andra tester på nuvarande beta? Tog mig en väldigt snabb titt på morgonen men hittade bara äldre tester då.

Skickades från m.sweclockers.com

Permalänk
Medlem

Var hittar man där man kan ändra directX på betan?

Permalänk
Medlem
Skrivet av superapan:

Är det för mycket begärt med ett stapeldiagram? Det kan väl inte ta längre tid att göra än tabeller?

Kan ha att göra med att forskning visar att folk ofta läser ner och åt sidan.
Så vill du dölja något på första sidan ska det vara nere i vänstra hörnet.

Stapeldiagram brukar intel, amd och nvidia använda. Och det brukar vara fel på skalorna.
Jag tillhör dem som föredrag horisontella stapeldiagram.

Men men, Samuel Clemens sa.
"There are three kinds of lies: lies, damned lies and statistics."

Vart helt OT.

Vet inte om de uppdaterad inatt då jag sov men jag har klart bättre prestanda och cpu användning nu jämfört med igår.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

Men kom igen nu...

"Läget kan dock ändras med optimeringar och polerad kod närmare lansering – Battlefield 1 är fortfarande beta-märkt, och varken AMD eller Nvidia har haft chans till några större optimeringar."

Egentligen kan jag tycka att ett sådant här test är totalt meningslöst innan den färdiga produkten är släppt. Vi vet ju alla hur bra DICE-spel brukar vara i beta version eller? Nu tog man pulsen exakt vid detta tillfället och då blev resultatet såhär, i slutändan bevisar det i princip ingenting då produkten inte var färdig vid tiden för testet.

Ta t.ex. nyligen lanserade DOOM, Vulkan blev snackisen. Vulkan i DOOM fungerade antagligen inte alls innan det implementerades? Och det hände EFTER att spelet släppts i fullversion. Mycket kommer att hända för BF1 även efter release.

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Medlem
Skrivet av Swennis:

Var hittar man där man kan ändra directX på betan?

Video. Sen har du en flik som heter advanced. Det är första valet i den menyn.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Undrar om 372.70 är bättre i BF1 än 368.81 för i BF4 fick jag mycket sämre fps med 372.70.

Jag har haft 372.54 nu ett par dagar efter att jag uppgraderade till ett 980. Och jag har haft otaliga problem med det. Tillsammans med Win 10 AU kunde jag inte ens starta BF4.
Jag har inte kollat det själv, men jag går på ditt ord och installerar 368.81. Får se sen när BF1 har kommit ut på riktigt, 372.70 var ju en update för just det spelet.

Permalänk
Medlem
Skrivet av Klubba:

Mantle är ju grunden i DX12 också å andra sidan, men visst vore vulcan bättre, slippa låsa sig till MS

Ja fast nu började DX12 utvexlas långt innan mantle var på tapeten. Något som folk fortfarande ignorerar.
Det var ju inte direkt som satt det gick på några dagar att vissa upp en fingerande dx12 implementation på forza.

Utväklare har villat ha tillbaks metal till MS sedan windows 98, då MS var trötta på att drivrutiner krasade deras och och ville bara få skit för sin egen kod. Det resulterade i w2000 och i förläggningen xp. (de ändra HAL, och det är gjort ett antal ggr efter det också, normalt sett vartenda SP gör en större. Det första os förutom dos6.22 som jag gillade från ms. Men detta är fel tråd för detta och folk vill tro vad de vill tro.

20 mars 2014
https://blogs.nvidia.com/blog/2014/03/20/directx-12/

30 sep 2013
http://www.forbes.com/sites/davealtavilla/2013/09/30/amd-and-...

Tror folk seriöst att det tog ett halvår för ms och nvidia att hitta på dx12 och visa upp tester i forza?

Jag hade faktiskt mycket bättre prestanda i dx12 än jag trodde jag skulle ha (verkade bättre i början) men hoppat tillbaks till dx11. NV....

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av hACmAn:

Video. Sen har du en flik som heter advanced. Det är första valet i den menyn.

Kan bara ändra videosettings där, low/medium/high/ultra/custom Står inget om directX... har ett 1060 GTX kort.

Permalänk
Datavetare

Det jag skrev ovan ser nog rätt kritiskt ut mot DX12, det var inte avsikten.

Råder inget tvivel om att DX11 (och än mer OpenGL) behöver bytas ut mot något modernare. Dessa är designade kring en abstraktion som var lämplig för hur grafikkretsar var designade för kanske tio år sedan, en abstraktion som inte passar dagens GPUer speciellt väl.

På hög nivå är abstraktionen i DX12, Vulkan och Apples Metal riktigt bra. Det DX12 kallar "multi-engine" saknas i princip helt i DX11 men det är precis så dagens GPUer i grunden ser ut.

Man får tänka på att DX12/Vulkan är typiska 1.0 version, de bryter ny mark och på lång sikt kommer det bli en förbättring. På kort sikt finns det alltid missar i 1.0, i fallet DX12/Vulkan tror jag man skalade av lite väl mycket logik från drivers för att hamna hos användaren.

Rätt säker att framtida versioner av DX12/Vulkan åter kommer stoppa in minneshanteringen i drivers, eller i alla fall ha det som en val. Tittar man på dagens DX12 titlar så fungerar flera inte alls med 2 GB VRAM, trots att samma titel fungerar utmärkt med DX11 med den mängden minne (förutsatt att man kör med rimliga inställningar för ett sådant kort).

Tester av 3 GB versionen av 1060 pekar på samma sak, med inställningar där man håller sig i närheten av 60 FPS är 3 GB överhuvudtaget inte ett problem i DX11. I de fall det finns problem handlar det endera om inställningar där man knappt når 30 FPS samt några fall med DX12 (där åter igen det fungerar bra med DX11).

Nätverksteknik har haft en liknande resa som vi ser för GPUer. För 6-8 år sedan konstaterades det att dåtidens OS inte var kapabla att hantera den last man nå med en eller flera 10 GBit/s portar, i värsta fall ska systemet hinna med ~14 miljoner paket per sekund och port. Dåtidens OS kunde inte hantera lasten och kunde inte heller sprida ut det över flera CPU-kärnor på ett effektivt sätt, det gick absolut att sprida ut över kärnor då det är serverlaster men skalningen var inte nära linjär.

Med tekniker som DPDK och senare även OpenDataPlane kunde man visa upp till en faktor tio bättre kapacitet för rena nätverksapplikationer.

Men även tidigt var det vissa applikationer som inte alls såg någon vinst, trots att man bevisligen ökat nätverkskapaciteten enormt. Här visade det sig att man inte riktigt sett hela bilden, många applikationer hade ju andra flaskhalsar som var långt större! Tror det är precis det vi ser i spel idag, för precis som för nätverk så visar t.ex. 3DMarks "API overhead" tester att DX12/Vulkan är även de runt en faktor tio snabbare om man bara vräker på med "draw-calls".

En konsekvens av att man kunde uppvisa 10:1 prestanda i vissa lägen fick folk att ställa sig frågan: vad är det som är flaskhalsen när man jobbar med nätverksfunktioner på "vanligt" sätt? I Linux hittade man fler designval som orsakade detta, i de flesta fall har man idag lurat ut sätt att komma runt det. Resultatet är att det går att skriva helt traditionella applikationer med de traditionella APIerna (som är betydligt lättare att jobba med jämfört med de extremt låg-nivå APIer som DPDK/ODP har) som typiskt hamnar inom en faktor två från låg-nivå versionerna i fallet där det inte finns någon annan flaskhals än just kostnaden för att läsa/skriva data till/från nätverket.

Rätt säker att det blir en liknande utveckling för grafik-APIerna. Om några år kommer det finnas något som är mer högnivå än DX12/Vulkan fast med i princip alla fördelar. Idag har DX12/Vulkan samma problem som DPDK/ODP, visst går det snabbt när man gör helt rätt. Men det är svårt, kräver enorm kunskap om både programmering och än mer om hur maskinvaran är designad. Det är kunskap väldigt få har och även de som har den kommer spendera rätt mycket tid innan resultatet blir bra, d.v.s. det är DYRT (något som redan påpekats flera gånger i denna tråd).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Benchmaskin 🍞
Skrivet av Kaine_Uro:

Intresserad av att få se en jämförelse mellan Vulkan och Direct x 12 framöver också.

Skrivet av Xaves:

Testa Vulkan också tack?

Finns inget Vulkan-stöd i dagsläget.

Permalänk
Medlem
Skrivet av GoPaw:

Otroligt att ett gtx 970 som man kan köpa för 1500kr begagnat nästan ligger på samma nivå som dessa 3000kr+ kort.

Jag menar lirar man i 1080p/1440p 60Hz så ser jag ingen mening att köpa värken rx480 eller ett 1060 ifall man redan sitter på 970 eller ett rx390.

Sjukt hur dom mjölkar oss 100% mer i pris (ifall man jämför med begagnat 970) men bara några få extra % prestanda. : (

https://www.youtube.com/watch?v=uMCPzpnwLoA

https://www.youtube.com/watch?v=P5EBvZBFuhw

Mvh

Den mer naturliga övergången från 970 är 1070. Tror inte de är ute efter att få oss som har 970 att uppgradera till dessa kort, 970 kostade 3500-4000kr när det släpptes. Så det är inte riktigt samma prissegment. Men jag håller med, den förra generationen är ett bra köp just nu, tex 970, eller 390 om man har tight budget.

Känns som nvidia alltid presterat bättre i BF titlar? Känns som någonting är knasigt med hur 480 presterar här, kanske funkar bättre när det släpps skarpt. Verkar dock inte vara speciellt tungdrivet

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Datavetare
Skrivet av anon5930:

Många här är som vanligt snabba med att dömma ut DirectX 12 och samtidigt passa på att tömma ut lite av sitt hat av Windows 10. Det man bör tänka på är att det handlar om en beta där fokuset inte är att kolla så att DirectX 12-imolemrntationen fungerar utan snarare kontrollera att mjukvaran öht fungerar på den blandning av komponenter som sitter i kundernas datorer och, framförallt då PS4 och XBO också testas, att servrar och allt mellan kunden och dessa också fungerar.

Vänta med eventuellt dömmande tills spelet är lanserat, en nyare build används där DirectX 12 fungerar som tänkt. Prioriteten är uppenbart låg att ha polerade features som bara fungerar för en väldigt liten del av kundgruppen. Borde vara rätt uppenbart för de flesta tycker jag.

Det sagt, någon som hittat några andra tester på nuvarande beta? Tog mig en väldigt snabb titt på morgonen men hittade bara äldre tester då.

Skickades från m.sweclockers.com

Skulle säga att de flesta kommentarerna kring DX12 i denna tråd är väldigt balanserad. De klagar inte specifikt på DX12 i BF:One utan man lyften faktiskt blicken och ser att ingen titel kan uppvisa någon relevant vinst från DX11, i alla fall inte för Nvidia och Polaris 10 (där AMD specifikt nämnt att man lyft en del DX11 flaskhalsar i HW jämfört med tidigare GCN-modeller, något som alltså verkar stämma även i verkligheten).

Doom är speciellt då referens är OpenGL, en API som i praktiken inte används för spel och som därför knappast får speciellt mycket kärlek från AMDs och Nvidias driver-team. Klart det blir ett lyft om man starar med något uselt, tyvärr lär vi aldrig få veta hur Doom skulle presterat med DX11 eller DX12.

Jämför man Vulkan och DX12 finns det på ytan överhuvudtaget inget som pekar på att de ena skulle ge bättre prestanda än den andra då de är extremt lika i sin grundläggande design. Om något borde DX12 prestera bättre då det tyvärr (hade själv föredragit Vulkan då det fungerar på alla Windows-version och även på andra OS) med stor sannolikhet kommer bli det dominerande APIet, något AMD/Nvidia vet om och därför rimligen lägger mest resurser på DX12.

Om Vulkan magiskt är bättre, varför syns det då inte i DOTA 2 och Talos Principle? Även Doom är ju en titel som är designad för ett "gammalt" API och där man klistrat på Vulkan-stöd efteråt, så det fungerar inte som förklaring. Då känns förklaringen att de andra två har DX11 som referens, DX11-stödet är långt mer putsade än OpenGL-stödet för konsument-GPUer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av biorrith:

Jag har haft 372.54 nu ett par dagar efter att jag uppgraderade till ett 980. Och jag har haft otaliga problem med det. Tillsammans med Win 10 AU kunde jag inte ens starta BF4.
Jag har inte kollat det själv, men jag går på ditt ord och installerar 368.81. Får se sen när BF1 har kommit ut på riktigt, 372.70 var ju en update för just det spelet.

Kom ut en drivare idag som ska vara mer specifikt för Battlefield 1 den kan du ju testa om du vill
http://www.nvidia.com/download/driverResults.aspx/107012/en-u...

@kenneth
Kommer ni använda denna drivrutinen när ni testar betan lite mer eller låter ni 1060/480 resultaten vara som dom är?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Inaktiv
Skrivet av hACmAn:

Ja fast nu började DX12 utvexlas långt innan mantle var på tapeten. Något som folk fortfarande ignorerar.
Det var ju inte direkt som satt det gick på några dagar att vissa upp en fingerande dx12 implementation på forza.

Utväklare har villat ha tillbaks metal till MS sedan windows 98, då MS var trötta på att drivrutiner krasade deras och och ville bara få skit för sin egen kod. Det resulterade i w2000 och i förläggningen xp. (de ändra HAL, och det är gjort ett antal ggr efter det också, normalt sett vartenda SP gör en större. Det första os förutom dos6.22 som jag gillade från ms. Men detta är fel tråd för detta och folk vill tro vad de vill tro.

20 mars 2014
https://blogs.nvidia.com/blog/2014/03/20/directx-12/

30 sep 2013
http://www.forbes.com/sites/davealtavilla/2013/09/30/amd-and-...

Tror folk seriöst att det tog ett halvår för ms och nvidia att hitta på dx12 och visa upp tester i forza?

Jag hade faktiskt mycket bättre prestanda i dx12 än jag trodde jag skulle ha (verkade bättre i början) men hoppat tillbaks till dx11. NV....

AMD har förmodligen haft en väldigt stor roll i utvecklingen av DirectX 12 också. En enkel anledning, Xbox One och den GCN-baserade grafiklösningen. Var först när AMD gick ut med Mantle som det började bli fart på Microsoft med DirectX 12, innan dess fanns inga livstecken. Att Microsoft hade något slags koncept över vad nästa generations API skulle vara är förstås rimligt men svårt att förneka att fokuset och intresset från Microsofts sida ökade efter Mantle.

Permalänk
Medlem
Skrivet av GoPaw:

Otroligt att ett gtx 970 som man kan köpa för 1500kr begagnat nästan ligger på samma nivå som dessa 3000kr+ kort.
Jag menar lirar man i 1080p/1440p 60Hz så ser jag ingen mening att köpa värken rx480 eller ett 1060 ifall man redan sitter på 970 eller ett rx390.

Finns en andledning och därför jag bytte ut mitt gamla 280x.
Ljudet. Mitt GTX1070 idlar nästan när man lirar och är därmed betydligt tystare. Iaf jämfört med 280x.
Har ingen erfarenhet av GTX970 men kanske var sueprtyst. Men för mig var det ett stort lyft. Lira Elite med avstängda fläktar
och ha fläktarna av när datorn står på under natten är skönt.

Men hatar man inte ljud som jag så är det nog bortkastade pengar

Permalänk
Medlem
Skrivet av Nagel:

Installerade samma nya drivrutiner igen fast denna gången som "clean install" och nu så fungerar det igen!

Gött!

Visa signatur

Ryzen 7 5800X3D | MSI 4090 Suprim Liquid X | Gigabyte Aorus X570 XTREME | 64GB Vengeance RGB Pro 3600MHz | Corsair MP600 M.2 - 500GB | Corsair MP600 M.2 - 2TB | Samsung 970 EVO 1TB M.2 | EVGA Supernova G2 1300W | Phanteks Eclipse P500A DRGB | Alienware 34" QD-OLED – AW3423DW

Permalänk
Medlem
Skrivet av anon5930:

AMD har förmodligen haft en väldigt stor roll i utvecklingen av DirectX 12 också. En enkel anledning, Xbox One och den GCN-baserade grafiklösningen. Var först när AMD gick ut med Mantle som det började bli fart på Microsoft med DirectX 12, innan dess fanns inga livstecken. Att Microsoft hade något slags koncept över vad nästa generations API skulle vara är förstås rimligt men svårt att förneka att fokuset och intresset från Microsofts sida ökade efter Mantle.

Det tror jag också ett antal vettiga tillägg i dx9 som c eller om det var b+ och några på dx10 minns inte vilka var funktiuner som amd hade men inte nvidia, vettiga i allafall. MS vill ha pengar så de är dumma om de inte pratar med de stora tre, Intel, Sen amd och nvidia. De är ju trotsa alt beroende av dem.

Har för mig jag läst att då ett nytt dx ska utvecklas så frågar ms fram och tillbaka amd och nvidia samt utvecklare vad de saknar och vad de har på g och vill ha implementerat. Och att det tar flera år. Precis som ett nytt kisel.
Jo fokusen ökade nog. Även om jag härde talas om dx12 innan mantle. Men ja.. Det alla som jobbade med båda kände nog till det innan det blev publict. Sen att det suttit ATI i nintendos konsoler seden gamecube samt xbox360 (en mix av dx9 och 10 om jag inte minns fel) och förseningen av releasen på ps3 (modifierad 7800) har nog inte gjort att programmerare har blivit sämre på och kräva stöd för close to metal för ati/amd prudukter. förutom "next gen" som du nämde.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Datavetare
Skrivet av anon5930:

AMD har förmodligen haft en väldigt stor roll i utvecklingen av DirectX 12 också. En enkel anledning, Xbox One och den GCN-baserade grafiklösningen. Var först när AMD gick ut med Mantle som det började bli fart på Microsoft med DirectX 12, innan dess fanns inga livstecken. Att Microsoft hade något slags koncept över vad nästa generations API skulle vara är förstås rimligt men svårt att förneka att fokuset och intresset från Microsofts sida ökade efter Mantle.

En förutsättning för att DX12 överhuvudtaget ska vara möjligt är WDDM 2.0. Arbetet med att designa WDDM 2.0 var i full gång redan i mitten av 2012, d.v.s. innan Mantle överhuvudtaget påbörjats.

Vad det gäller tekniker som är grundstenar i DX12, Vulkan och Metal (som faktiskt var först med en officiellt lansering av ett low-level API) så hade dessa redan demonstrerats långt tidigare. Nvidia pushade t.ex. för modellen kring hur resurser ska effektivt associeras med aktuellt renderingstillstånd (en modell som alla low-level APIer idag använder), detta demonstrerades redan 2009 i form av OpenGL utökningar.

Modellen DX12/Vulkan använder för att "spela in" en rad grafikkommandon i en minnesbuffert, något som kan göras från vilken tråd som helst och som är grundbulten i skalning över CPU-kärnor, introducerades redan i DX11. Precis som alla 1.0 av något var inte det man gjorde i DX11 fritt från grodor, dessa tror man sig nu fixat i DX12/Vulkan, men det är i grunden exakt samma idé som i DX11.

När DX12 offentliggjordes på Build 2014 ställde sig flera frågande till varför AMD överhuvudtaget lagt resurser på Mantle då AMD, precis som Nvidia och Intel, jobbat ihop med Microsoft på DX12 under flera år (precis som man gjort med alla DX-version). GPU-tillverkarna är även med när Microsoft tar fram WDDM, så AMD måste ha känt till DX12 väldigt långt innan man startade Mantle.

Både Nvidia och AMD satsade ju stenhårt på GPGPU (Fermi och GCN), en teknik som allt mer används på konsoler men som aldrig tagit fart på PC. Skillnaden är väldigt mycket CPU, den är flaskhals för konsoler vilket gör värdet av GPGPU enormt. CPU-delen är överhuvudtaget inte flaskhals på PC, att då flytta mer jobb till GPU-delen skulle ju ge lägre total prestanda i de flesta lägen (finns några få nischområden där GPGPU även är vettig på PC).

Min gissning är att AMD förväntade sig en betydligt större vinst från Mantle än vad som blev fallet. Man fick nog också panik av att GCN är ineffektiv jämfört med Nvidias kretsar i DX11 (behövs väldigt mycket fler transistorer och effekt för likvärdig spelprestanda), man kunde inte heller utnyttja saker i GCN i GPGPU då det aldrig tog fart. Nvidia insåg relativt snabbt att GPGPU inte kommer ta fart, i Kepler skalade man bort väldigt mycket från Fermi som bara var vettigt för GPGPU.

Missen AMD antagligen gjorde var att titta på konsolerna (som haft detta sedan 360 och i någon mån även PS3), sett hur stor vinsten är där och sedan extrapolerat det till PC utan att tänka på de skillnader som ändå finns i fördelning mellan CPU kontra GPU-kraft och skillnader i kommunikationslatens mellan CPU och GPU (gemensamt minne vs. separerade av PCIe).

Så Mantles påverkan på designen och tidsplaneringen av DX12 lär varit minimal. Däremot lär Mantle betytt enormt mycket för Vulkan, framförallt lär Mantles existens accelererat 1.0 releasen av Vulkan rätt mycket. Man startade ju jobbet med Vulkan rätt långt efter Microsoft startade jobbet med DX12.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av sKRUVARN:

Så konstigt är det väl inte, frostbite har alltid funkat väldigt bra på Nvidias hårdvara. Bf3 var väl rätt Nvidia sponsrat och presterade väldigt bra på Nvidia kort. Även bf4 demoades på Nvidia fram till en viss punkt när de skrev avtal med amd istället och trots att det var "Gaming evolved" titel så flöt det såklart väldigt bra på Nvidias hårdvara.

Skickades från m.sweclockers.com

Kollade på en dev då johan anderson berättade hur de byggt frostbyte 2, och hur de streamede in data dynamiskt. Då var det fermi, och targeten under 1,5GB i grafikminne som gällde så om inte renoveringen av gamla frostbyte var baserat på fermi så ja, då känns det konstigt, framföralt då nvidia överpresterade amd även efter bf4 blev en evolved tittel.

Edit:
För de intresserade av frostbyte 2 som sen blev nya verisioner snarare än 1 eller 1,5 som i BF BC2.
https://www.youtube.com/watch?v=R-jwajMaawE
08:12 finns en stillbild som tyder väldigt på att de skrev grunden runt nvidia.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Inaktiv
Skrivet av hACmAn:

Det tror jag också ett antal vettiga tillägg i dx9 som c eller om det var b+ och några på dx10 minns inte vilka var funktiuner som amd hade men inte nvidia, vettiga i allafall. MS vill ha pengar så de är dumma om de inte pratar med de stora tre, Intel, Sen amd och nvidia. De är ju trotsa alt beroende av dem.

Har för mig jag läst att då ett nytt dx ska utvecklas så frågar ms fram och tillbaka amd och nvidia samt utvecklare vad de saknar och vad de har på g och vill ha implementerat. Och att det tar flera år. Precis som ett nytt kisel.
Jo fokusen ökade nog. Även om jag härde talas om dx12 innan mantle. Men ja.. Det alla som jobbade med båda kände nog till det innan det blev publict. Sen att det suttit ATI i nintendos konsoler seden gamecube samt xbox360 (en mix av dx9 och 10 om jag inte minns fel) och förseningen av releasen på ps3 (modifierad 7800) har nog inte gjort att programmerare har blivit sämre på och kräva stöd för close to metal för ati/amd prudukter. förutom "next gen" som du nämde.

Sant det. DirectX 10.1 fanns som AMD supportade men Nvidia vägrade. Assassins Creed (1, den första alltså) hade vid lanseringen stöd för DX 10.1 men tvingades bort av Nvidia.

Och som du säger och är inne på, Microsoft är bra på att finna och söka sammarbeten. Främst AMD och Nvidia men även Intel blir väldigt viktiga här då främst de två första är experter på området och utvecklar marknadens bästa och snabbaste lösningar.

Samtidigt började Microsoft officiellt tala om och avtäcka DirectX 12 den 20 mars 2014. Mantle avtäcktes i september 2013 så AMD var tidigare även där.

Close to Metal API-er är ju något utvecklare själva efterfrågat för PC så jag hoppas vi ser bättre resultat när rena DX12/Vulkan titlar hittar ut. Personligen med mitt system så upplever jag helt klart förbättringar med de spel som fått stöd. Bästa prestandaökningarna har varit i Total War: Warhammer samt DOOM.

Skickades från m.sweclockers.com

Permalänk
Medlem

@Azacian: Inte bara ljud du går ifrån utan ditt nya 1070 drar mindre ström så jag förmodar att de kommer även va svalare.
Men ja angående 970 så är dom både tysta och svala i alla fall när de gäller gigabytes g1 gaming modeler helt enkelt kanon valuta för 1500:-

Visa signatur

Ryzen 5800X3D • Gigabyte X570S AORUS Pro AX • Noctua NH-D15S Chromax Black •
Crucial Ballistix RGB 3600MHz CL16 2x16GB • 3x Seagate FireCuda 520 2TB •
Gigabyte 3070 AORUS Master • Xiaomi Curved Gaming Monitor 34 •
Asus ROG Strix 850W • Fractal Design Define R5 •

Permalänk
Avstängd
Skrivet av Kenneth:

Finns inget Vulkan-stöd i dagsläget.

Jo det finns det. Min polare kör Vulkan i BF1 betan.

Visa signatur

https://mega.nz/#!xNBjAJKA!OQctTR0tY5EK1Dk68MV0loIyCD3ftwL_KI...
(DX-11 DLL-fil till SweetFX/Reshade som är kompatibel med GTA 5)

Permalänk
Medlem
Skrivet av Xaves:

Jo det finns det. Min polare kör Vulkan i BF1 betan.

Din polare ljuger eller har fel.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Benchmaskin 🍞
Skrivet av Xaves:

Jo det finns det. Min polare kör Vulkan i BF1 betan.

Intressant. Be din kompis att skriva in Render.drawscreeninfo 1 i konsolen och sedan skicka in en screenshot till oss.
Han får gärna avslöja hur han lyckades aktivera Vulkan.

Permalänk
Inaktiv

Enligt gammalt Twitterinlägg så påstod iallafall johan Andersson att Frostbite kommer stödja bägge API'er, men inte nödvändigtvis på samma plattform: https://twitter.com/repi/status/618421200214212608

Men att eventuellt Vulkan-stöd skulle finnas i beta-builden ställer jag mig också tveksam till.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av GoPaw:

@Azacian: Inte bara ljud du går ifrån utan ditt nya 1070 drar mindre ström så jag förmodar att de kommer även va svalare.
Men ja angående 970 så är dom både tysta och svala i alla fall när de gäller gigabytes g1 gaming modeler helt enkelt kanon valuta för 1500:-

Ja exakt, de går riktigt svalt o fläktarna är rätt ofta idle tack vare det. Får se hur det blir när det får svettas lite med BF. Bara haft det några dagar. Jo, 970 är nog ett riktigt bra köp idag om man håller sig runt lägre upplösningar.

On topic: Trist med DX12,man hade ju högre förhoppingar men det kanske är en learning curve för alla inblandande.

Permalänk
Medlem
Skrivet av Azacian:

Ja exakt, de går riktigt svalt o fläktarna är rätt ofta idle tack vare det. Får se hur det blir när det får svettas lite med BF. Bara haft det några dagar. Jo, 970 är nog ett riktigt bra köp idag om man håller sig runt lägre upplösningar.

On topic: Trist med DX12,man hade ju högre förhoppingar men det kanske är en learning curve för alla inblandande.

DICE har väldigt mycket kunskap om det med tanke på Mantle.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av GoPaw:

Otroligt att ett gtx 970 som man kan köpa för 1500kr begagnat nästan ligger på samma nivå som dessa 3000kr+ kort.

Jag menar lirar man i 1080p/1440p 60Hz så ser jag ingen mening att köpa värken rx480 eller ett 1060 ifall man redan sitter på 970 eller ett rx390.

Sjukt hur dom mjölkar oss 100% mer i pris (ifall man jämför med begagnat 970) men bara några få extra % prestanda. : (

https://www.youtube.com/watch?v=uMCPzpnwLoA

https://www.youtube.com/watch?v=P5EBvZBFuhw

Mvh

Hur kan du jämföra begagnatpriser med nypriser? Självklar är dessa och ska också vara lägre beroende på garantivillkor och andra faktorer. Det är ju aldrig lika kul att packa upp en begagnad pryl heller jämför med en ny.