DirectX 12 med Ashes of the Singularity

Permalänk
Hjälpsam
Skrivet av Yoshman:

@Ratatosk: inte säkert att man ser jättemycket ryck då upplevd ryckighet främst beror på hur mycket och snabbt

T_display - T_game

varierar.

Är fullt möjligt att ha 144 FPS och ändå uppleva bilden som väldigt ryckig. Omvänt är det typiskt en mer behaglig upplevelse att köra 30 FPS på konsolerna då de har bättre kontroll av den senare delen av processen så de kan hålla variansen av

T_display - T_game

på lägre nivå än en typisk PC vid 30 FPS, en PC kan däremot "fixa" detta genom att ha betydligt högre FPS.

Känner mig lite seg, vad tror du om detta?

"The direct flip feature allows for special optimizations to the composition model to reduce power consumption. The optimizations benefit these scenarios:

  • To ensure optimal power consumption for video playback and other full screen scenarios, direct flip enables a minimum of memory bandwidth to display full-screen content and ensure smooth transitions between full-screen apps, other apps, and the desktop environment.

  • The user wants to view a video or run an app that covers the entire screen. When the user enters or exits the app, or notifications appear over the app, no mode change is required, and the experience is smooth. Furthermore, the user enjoys extended battery life on mobile devices because memory bandwidth requirements are reduced for full-screen apps such as video.

"
https://msdn.microsoft.com/en-us/library/windows/hardware/dn6...

Tänker på detta.
http://www.guru3d.com/articles-pages/fcat-benchmarking-review...

Buggen att AMD:s drivrutin saknar DirectFlip, gör alltså att mätmetoden stör eller störs.

Eller är jag ute och cyklar?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Vaneriuz:

Jag tänkte liknande när jag läste.. SweC tonar ner det ganska rejält kan jag tycka. Det sitts väl på ett och annat Nvidia-kort på redaktionen..

Ok, jag tar av en bit av foliehatten iaf. Jag tyckte dock att det fjäskades lite. Jag har ägt flera Nvidia-kort, men jag gillar inte företaget för fem öre. AMD ska ha credd för att de "står ut" med Nvidia. Gameworks, ja herregud..

Bra test iaf! Och riktigt najs att det funkar så bra med blandade kort!

Skickades från m.sweclockers.com

Ja, det är upp till bevis nu. Om AMD fortsätter att vara bättre än Nvidia med de ändå lägger in små "men" och "om", som de inte gör när Nvidia har övertaget, så blir det nog svårt att försöka visa att det inte föreligger en viss bias till Nvidias nackdel i testerna.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

https://www.youtube.com/watch?v=O7fA_JC_R5s
Om detta stämmer så kommer Det drabba MS då man på andra enheter kommer att få bättre prestandard med sämre hårdvara.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Datavetare

@Ratatosk: är nog inte helt med på vad DirectFlip faktiskt gör, stannar nog vid det jag skrev tidigare: uppenbarligen har både Nvidia och AMD arbete kvar på sina respektive DX12 drivare

Skrivet av Vaneriuz:

Ok, jag tar av en bit av foliehatten iaf. Jag tyckte dock att det fjäskades lite. Jag har ägt flera Nvidia-kort, men jag gillar inte företaget för fem öre. AMD ska ha credd för att de "står ut" med Nvidia. Gameworks, ja herregud..

Varför skulle man överhuvudtaget personligen "gilla" ett företag? Tycker t.ex. det mesta Apple står för suger, men har ändå köpt deras produkter i lägen när de haft något som i slutändan pass mig bättre än vad andra kunde erbjuda. Inget företag är din vän, de vill bara ha så mycket av dina pengar som möjligt

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Yoshman:

Verkar vara VSYNC, men ändå inte. Tydligen är VSYNC annorlunda på dx11 mot dx12. Hur fDirectflip kommer in i sammahanget förstår jag inte, när det är ett sätt att spara energi i minnet när du visar full skärm bl.a . Låter nästan som ett VFR/Freesync problem.

Permalänk
Hjälpsam

@Yoshman: Tror att den redan kom till DX11, den fungerar uppenbarligen inte i AMD:S DX12 rutin.
Skrev lite mer, under det att du svarade.

Känns som det ofta behövs cirka ett år innan saker blir skapligt stabila.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av dahippo:

@Yoshman:

Verkar vara VSYNC, men ändå inte. Tydligen är VSYNC annorlunda på dx11 mot dx12. Hur flipswitch kommer in i sammahanget förstår jag inte, när det är ett sätt att spara energi i minnet när du visar full skärm bl.a .

Används även när man kör på helskärm och poppar upp notifikationer på denna, något som FTC verkar använda sig av.

#16015700

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Gjorde ett test med mitt 980 och en 4790k http://youtu.be/vIPknwilM5U

Visa signatur

Desktop: AMD Ryzen 9 7950X, ASUS 4090 ROG Strix, 32GB RAM DDR5 6000MHz CL36 FURY,
ASUS TUF Gaming X670E-Plus / Monitor/Tv: LG C2 42Tum/ Playstation 5 // Xbox Series X // iPhone 14 Pro// iPad Pro Air m1 // TV Vardagsrummet LG Oled 77CX Sovrummet LG OLED B7 55TUM. Övervåningen LG C1 65

Permalänk
Skrivet av ThomasLidstrom:

Hejsan SwedenVirre,
Linus Tech Tips gjorde ett liknade test för ett tag sedan, fast bara på Nvidiakort.
https://www.youtube.com/watch?v=iZUshOSWQRo
Jag vill minnas att drivrutinerna förbättrar prestandan för korten med ung. 25% för att därefter plana ut.

Kanske är det så att AMD underhåller drivrutinerna för sina grafikkort längre än Nvidia.
Det var väl inte förrän nyligen som de slutade unerhålla 5000-serien?
De introducerades 2009-2010.

Det som verkar oroande är däremot hur Gameworks verka hantera "äldre" Nvidia GPUer.
Om mätningarna i denna videon stämmer är det illavarslande:
https://www.youtube.com/watch?v=O7fA_JC_R5s

Kollat en del på LTT men inte den videon så det kommer kollas!

Ang Gameworks så håller jag med, efter lite forskning på nätet så verkar gameworks på optimeras för nvidias nya kort och inte äldre serier, vilket gör mig lite besviken. Jag är inget fan av något av lagen, men det är inte ofta jag köper senaste generationen av GPUer så det tar i mot lite där. Man vill ju inte att kortet skall bli delvis sämre när en ny generation kommer.

Det tror jag inte någon vill.

Ang AMD så får mitt 6870 fortfarande nya drivare. har 16.1 nu alternativt 16.2 av Crimmison drivarna(dom har gjort ett bra jobb att snygga till dom sen Catalyst, även om grejer inte ligger där jag hade velat se dom)

Nu tror jag inte där kommer några speciella optimeringar för detta kortet då jag tror det ligger på sin yttersta gräns efter alla dessa åren. Men buggfixar m.m av just kontrollpanelen är ju trevligt!

Nog om det, känner mig besviken på nvidia faktiskt. Brorsan som sitter på nvidia kommer ju inte ha det så trevligt om han försöker sig på DX12 titlar eller gameworks titlar. Även dom som sitter på Titan och 780Ti bör ju vara mindre glada iom detta, rent beräkningsmässigt så är ju det fortfarande ok kort med en hel del att ge!

Visa signatur

12900K, 48GB DDR5, RTX 3080Ti

Permalänk
Hjälpsam

AoS till salu för -50% på Steam.
http://store.steampowered.com/app/228880/

Mer om FCAT DirectFlip DWM,DX11, DX12, AMD, AoS, Nvidia och en jämra massa till förkortningar.
http://www.extremetech.com/extreme/223654-instrument-error-am...

Det är fel på mätverktyget alltså FCAT, inte AMD:s drivrutiener.
FCAT är inte lämpat att mäta frametimes på Windows 10, eftersom det förutsätter att man använder DirectFlip, som har ersatts av en modernare metod.

Skrivet av ExtremeTech:

AMD’s driver follows Microsoft’s recommendations for DX12 and composites using the Desktop Windows Manager to increase smoothness and reduce tearing. FCAT, in contrast, assumes that the GPU is using DirectFlip. According to Oxide, the problem is that FCAT assumes so-called intermediate frames make it into the data stream and depends on these frames for its data analysis. If V-Sync is implemented differently than FCAT expects, the FCAT tools cannot properly analyze the final output. The application’s accuracy is only as reliable as its assumptions, after all.

An Oxide representative told us that the only real negative from AMD’s switch to DWM compositing from DirectFlip “[I]s that it throws off FCAT.”

In this case, AMD is using Microsoft’s recommended compositing method, not the method that FCAT supports, and the result is an FCAT graph that makes AMD’s performance look terrible. It isn’t. From an end-user’s perspective, compositing through DWM eliminates tearing in windowed mode and may reduce it in fullscreen mode as well when V-Sync is disabled.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Pantsoff:

Du ska jämföra 7970 ghz och 680. Inte vanliga 7970.

Varför? GHZ kom ju senare och kostar mer. Det är snäppet 280X och 7970Ghz är snäppet över

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av Ratatosk:

AoS till salu för -50% på Steam.
http://store.steampowered.com/app/228880/

Mer om FCAT DirectFlip DWM,DX11, DX12, AMD, AoS, Nvidia och en jämra massa till förkortningar.
http://www.extremetech.com/extreme/223654-instrument-error-am...

Det är fel på mätverktyget alltså FCAT, inte AMD:s drivrutiener.
FCAT är inte lämpat att mäta frametimes på Windows 10, eftersom det förutsätter att man använder DirectFlip, som har ersatts av en modernare metod.

Undrar hur många som funderat på att köpa AMD kort sen Windows 10 kom, har ångrat sig och köper Nvidia pga detta.

Permalänk

Riktigt trevligt att se AMD vinna i detta spelet med DirectX 12. Ska bli intressant att se om AMD kan fortsätta ligga bra till i andra DirectX 12 titlar.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem

Hittade en intressant sammanfattning som gäller de nuvarande generationenernas grafikkort och async i DX12.

http://ext3h.makegames.de/DX12_Compute.html

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av BrottOchStraff:

Tyvärr så det är i PCvärlden. Skulle alla datorer i hela världen fortfarande sitta på ett 580 så hade vi nog i princip fortfarande ha lika snygga spel, fast mer optimerade. Skulle bli lite som konsol. De är ju flera gånger klenare än PC. Men kan fortfarande producera väldigt snarlik upplevelse i många fall.

Skojar du med mig eller? Nej, vi skulle inte ha lika snygga spel. Konsol? 30fps @ 720p är det vi hade haft i så fall.

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av kelthar:

Hittade en intressant sammanfattning som gäller de nuvarande generationenernas grafikkort och async i DX12.

http://ext3h.makegames.de/DX12_Compute.html

Tyvärr tror jag slutsatsen som dras är väldigt träffande

"It's a complete mess at first sight.
Best case scenario for AMD is the absolute worst case scenario for Nvidia.
And exactly the same vice versa as well, if you count in the use of CUDA. "

Vilket i.o.f.s. inte är speciellt förvånande. Varje gång det ha varit en större förändring i DirectX så har nuvarande maskinvara aldrig kunnat utnyttja nyheterna i närheten av optimalt. Mycket kommer nog förbättras med Polaris/Pascal, men behövs nog ännu en generation innan vi riktigt kan se den fulla effekten av övergången till DX12/Vulkan. De två dominerande GPU-tillverkarna måste ha designer där det mesta som fungerar riktigt bra på den ena kretsen också fungerar bra på den andra, blir för dyrt att ha två (tre om Intel någonsin skulle fungera för spel) i stort sett separata render-paths.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

En bra länk som talar om kaoset med drivrutiner för D3D och OpenGL.

https://www.gamedev.net/topic/666419-what-are-your-opinions-o...

Mycket läsvärd.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av kelthar:

Skojar du med mig eller? Nej, vi skulle inte ha lika snygga spel. Konsol? 30fps @ 720p är det vi hade haft i så fall.

Tror jag faktiskt inte. Varför skulle det vara 720p och 30fps? Finns en hel drös med spel som går i 60FPS på xbox 360 pch PS3 tom Wii. Allt handlar om hur man bygger upp grafikmotorn och vilka tekniker som används. Det skulle absolut gå, de kanske skulle behöva skippa MSAA, SMAA, HBAO och liknande funktioner, vilket inte direkt ger så mycket i min mening, lite ögongodis för stort perestandapåslag. Sen skulle vi inte ha lika högupplösta texturer osv. Men det skulle inte bli sämre spel pga det.

Jag är inte ANTI utveckling. Jag menar bara att hårdvarokraven inte motsvarar den grafiska detaljrikedomen vi får i många spel. Tror utvecklare är lata och höjer systemkraven istället för att lägga ner tid på optimering. Sen finns det såklart spel som är väldigt bra optimerade också. Tycker tex GTA4 var bra optimerat för PC, skalar bra. Men då lade de ner väldigt lång tid på att släppa en PC-version.

Tycker också BF-Badcompany 2 vs BF3 var ett bra exempel. Massa nya grafiska finesser i BF3, men det flöt sämre och alla dessa effekter var mest ivägen sen när man väl kom igång och skulle spela på allvar (typ alla pro-spelare stänger ju av nästan alla effekter). BC2 ser mycket renare ut och lättare att se va man gör. BF3 är snyggt på Screenshots.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Oj, vilken pajkastning det blev här.
Åter igen så tycks ni ha missat att Microsoft har verkligen lyckats ta fram ett framewwork för spelgrafik som pressar hårdvaran till det yttersta om det implementeras och används rätt i hela kedjan.
Att AMD just nu är bäst är nog inte så underligt då Microsoft vill kunna pressa även sin konsoll Xbox One ett steg till och vad sitter under huven där? Jo AMD =).
Och då nu Microsoft ser en marknad på att spelen skall fungera på båda plattformarna utan större skillnad så är det helt OK för mig.
Att Nvidia fortfarande inte har hängt med på detta tåg kan nog bara Nvidia själva svara på men framtiden ser nog ljus för alla då det just sådana här omkastningar som driver tekniken framåt helt klart.
Det jag ser som mest positivt i de tester som finns är just att man kan blanda grafikkort och dra nytta av bådas starka sidor. Mao det blir en röd grön röra i datorn ihop med den blåa sidan kanske =).

Visa signatur

..:[EVGA Z97 Classified][Intel Core i7 4790K @ 4.8][4x8GB Dominator @ 2133 XMP][2x EVGA GTX 980 Ti SC+ ACX 2+][Cooling EKWB custom loop]:..
..:[EVGA X99 FTW K][Build in progress]:..

Permalänk
Medlem
Skrivet av Yoshman:

Inte sant, iGPU i Skylake har feature level 12.1 (vilket även Maxwell gen 2 har) samt dessa feature med högsta kapacitet (Tier 3, GCN har Tier 3 för "resource binding", Maxwell gen 2 har Tier 3 för "tiled resources"). Huruvida det spelar någon praktiskt roll för de med Skylake iGPU är en annan fråga

Hade inga som helst tvivel att GCN skulle vinna mer på DX12 än Maxwell, enda frågan är exakt hur mycket mer den kommer vinna i genomsnitt. Inte heller något konstigt att 380 kommer nära 970 och 390X kommer nära 980ti i en DX12 titel som är begränsad av shader-kapacitet, det ska bli så om inte AMD överdriver kapacitet i GCN eller Nvidia mörkar faktiskt kapacitet i sina kretsar (vilket får ses som uteslutet).

GCN är en väldigt bra design som lanserades vid helt fel tidpunkt. Har nämnt detta tidigare, men tycker många saker pekar på att något likt DX12 var planerat i samband med Win8-lanseringen. Skulle vara kul att se hur Fermi uppför sig i denna titel, för läser man whitepaper om de olika designerna så har Fermi saker som var meningslösa i DX11 men skulle gå att använda i DX12 (frågan är bara om dessa faktiskt används i DX12 drivarna, är trots allt en rätt gammal krets). Dessa saker togs bort i Kepler då de som sagt var meningslösa i DX11 och den ytan kunde användas bättre. Varför designade AMD GCN och varför hade Fermi dessa finesser om inte planen var att de skulle komma till användning runt Win8 lanseringen?

Innan GCN hade AMD i princip alltid en mer effektiv design än Nvidia (en mindre krets med färre transistorer för att nå en viss spelprestanda), men Nvidia kompenserade det "brute-force" genom att designa större (och dyrare) kretsar. Med facit i hand hade det nog varit betydligt bättre om VLIW-designen (som är effektiv för grafik men mindre bra för GPGPU jämfört med GCN, GPGPU står än idag och stampar) används även för 28 nm. I.o.f.s. alltid enklare att säga vad man borde har gjort...

Hårklyverier, men skulle inte säga att DX11 är "seriellt". Alla dagens GPUer är massiva parallella system, DX11 har överhuvudtaget inget problem att använda detta. Däremot är DX11 ett "sekventiellt" API, man kan bara hantera en sekventiell ström av instruktioner medan DX12 gör gör det möjligt att ha flera flera sekventiella strömmar av instruktioner. Jämförelsen med Hyperthreading är väldigt nära till hands här, även i att förklara varför Maxwell resp. GCN ger de resultat man ser.

DX11 är som en CPU med en tråd per CPU-kärna, den kan köra en sekvens av instruktioner. DX12 lägger till HT (SMT), är nu möjligt att köra flera strömmar genom varje CPU-kärna. Maxwell är som t.ex. Jaguar eller Silvermont, visst skulle man kunna lägga till SMT på dessa CPUer men enda resultatet skulle vara att man nu kör två instruktionsströmmar med halva hastigheten då dessa designer kan redan fylla sina beräkningsenheter men en instruktionsström.

GCN är som dagens "Core" eller som "gamla" Atom (Bonnell), båda dessa har (av helt olika skäl) svårt att fylla kapacitet av sina beräkningsenheter med en instruktionsström så lägger man till flera trådar per fysisk kärna kommer prestanda per CPU-tråd bli signifikant högre än halva hastigheten, d.v.s. totalt utfört arbete genom varje kärna ökar med HT. OBS: jämförelsen med HT här är bara en illustration, rent tekniskt är SMT och vad DX12/Vulkan gör väldigt olika.

Givet resultatet skulle jag också säga att Maxwell definitivt ser ut att stödja "async compute", men då den redan kan fylla kapacitet av sina beräkningsenheter så är förväntat resultat att total mängd utfört arbete blir ungefär detsamma även om man kör flera sekventiella strömmar. Att det blir något lägre kan förklaras i att det man måste hålla en del tillstånd per instruktionssekvens, något som har en låg men icke noll kostnad. Vinner man då inget i totalt beräkningskraft blir det vad vi ser nu. Detta är naturligtvis spekulation, vet inte om "async compute" stödet är färdig eller ej men känns ändå rimligt givet DX11 konstra DX12 resultatet för Maxwell/Kepler.

Oerhört intressant utläggning!

Skrivet av Ignostic:

Det finns ett riktigt genomtänkt matx chassi som är på gång. http://www.kimeraindustries.com/cerberus/#cerberus-hero
Klart mindre än ex. Prodigy M och väldigt mycket bättre planerat.
Tyvärr dröjer det nog lite längre än jag vill, indiegogo kampanjen börjar 1a mars

Riktigt najs låda! Äntligen ett litet mATX-chassi också! Ser ut som Dan A4. Att det ska till crowdfunding för att det ska komma ordentliga och utrymmeseffektiva chassin.

Skrivet av Ratatosk:

Oxide som kodar AoS vet inte heller riktigt varför.
http://www.overclock.net/t/1590939/wccf-hitman-to-feature-bes...
edit Fel länk.

"This is beyond our knowledge base". Tungt.

Skrivet av Ratatosk:

Spelet planeras släppas nästa månad, så tidig är inte betan.

Men delvis håller jag med, för det första tycker jag inte att spelet presterar speciellt dåligt för Nvidia, det är ju ruskigt mycket som händer på skärmen och även det gröna laget hänger med bra, spelet fungerar också bra även i DX11 där.

Grejan är väl helt enkelt att DX11 verkar passa Nvidia bättre än det gör för AMD, för DX12 är det tvärtom, inget magiskt det är helt enkelt så det är.

Om man vänder på steken kan man konstatera att AMD tappar oerhört över att köra på DX11, det gör inte Nvidia.
Nästan alla nyare spel är DX11 eller äldre, Nvidias kort kommer att hänga med länge än.

Vad har Oxide gjort med sin planering? För 2 månader sedan skulle det släppas början av 2017, möjligen slutet på 2016. Sen blev det plötsligt i mitten av 2016, och nu är det 22 mars?

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av LazySoft:

Oj, vilken pajkastning det blev här.
Åter igen så tycks ni ha missat att Microsoft har verkligen lyckats ta fram ett framewwork för spelgrafik som pressar hårdvaran till det yttersta om det implementeras och används rätt i hela kedjan.
Att AMD just nu är bäst är nog inte så underligt då Microsoft vill kunna pressa även sin konsoll Xbox One ett steg till och vad sitter under huven där? Jo AMD =).
Och då nu Microsoft ser en marknad på att spelen skall fungera på båda plattformarna utan större skillnad så är det helt OK för mig.
Att Nvidia fortfarande inte har hängt med på detta tåg kan nog bara Nvidia själva svara på men framtiden ser nog ljus för alla då det just sådana här omkastningar som driver tekniken framåt helt klart.
Det jag ser som mest positivt i de tester som finns är just att man kan blanda grafikkort och dra nytta av bådas starka sidor. Mao det blir en röd grön röra i datorn ihop med den blåa sidan kanske =).

Nja. Nu pressar inte Microsoft hårdvaran till det yttersta. Med DX12 blir det bara close to metal som de brukar benämnas. Det betyder egentligen bara att man med dina ordalag kan pressa ur lite mer prestanda samt framförallt allt anpassa sitt API efter dagens hårdvara. Finns ganska mycket mer att dra ur hårdvaran om man hade tid/resurser/pengar (vilket brukar vara samma sak).

Dock glömmer du eller iafall inte nämner att det finns fler spelare än bara Microsoft som kan hjälpa till att få ut rejält med mycket mer prestanda ur spelen om de hade orkat. Speltillverkarna själva tex. De är troligen bland de större bovarna i många fall.

Permalänk
Medlem
Skrivet av Triton242:

Nja. Nu pressar inte Microsoft hårdvaran till det yttersta. Med DX12 blir det bara close to metal som de brukar benämnas. Det betyder egentligen bara att man med dina ordalag kan pressa ur lite mer prestanda samt framförallt allt anpassa sitt API efter dagens hårdvara. Finns ganska mycket mer att dra ur hårdvaran om man hade tid/resurser/pengar (vilket brukar vara samma sak).

Dock glömmer du eller iafall inte nämner att det finns fler spelare än bara Microsoft som kan hjälpa till att få ut rejält med mycket mer prestanda ur spelen om de hade orkat. Speltillverkarna själva tex. De är troligen bland de större bovarna i många fall.

Jo, men det finns ingen idag som direkt programmerar sina spel på lågnivå, mao direkt mot hårdvaran.
Typ exempel på det är väl Playstation 3, då det endast finns ett fåtal spel som verkligen drar nytta av hårdvaran och hade bra sponsring från Sony.

Som spelutvecklare idag vill man ju få ut så mycket som möjligt av sin titel och tar oftast den enkel vägen via olika ramverk som då inte kanske kan ta nytta av hårvarans verkliga kraft.

Det känns ändå som Microsoft är på rätt väg med nya DX12 och man får väl inte glömma Kronos nya ramverk Vulcan som också verkar vara på rätt väg. Här finns ju ännu mer att tjäna på om den verkligen blir så platformsoberoende som det är tänkt för spelutvecklare.

Visa signatur

..:[EVGA Z97 Classified][Intel Core i7 4790K @ 4.8][4x8GB Dominator @ 2133 XMP][2x EVGA GTX 980 Ti SC+ ACX 2+][Cooling EKWB custom loop]:..
..:[EVGA X99 FTW K][Build in progress]:..

Permalänk
Medlem
Skrivet av BrottOchStraff:

Tror jag faktiskt inte. Varför skulle det vara 720p och 30fps? Finns en hel drös med spel som går i 60FPS på xbox 360 pch PS3 tom Wii. Allt handlar om hur man bygger upp grafikmotorn och vilka tekniker som används. Det skulle absolut gå, de kanske skulle behöva skippa MSAA, SMAA, HBAO och liknande funktioner, vilket inte direkt ger så mycket i min mening, lite ögongodis för stort perestandapåslag. Sen skulle vi inte ha lika högupplösta texturer osv. Men det skulle inte bli sämre spel pga det.

Jag är inte ANTI utveckling. Jag menar bara att hårdvarokraven inte motsvarar den grafiska detaljrikedomen vi får i många spel. Tror utvecklare är lata och höjer systemkraven istället för att lägga ner tid på optimering. Sen finns det såklart spel som är väldigt bra optimerade också. Tycker tex GTA4 var bra optimerat för PC, skalar bra. Men då lade de ner väldigt lång tid på att släppa en PC-version.

Tycker också BF-Badcompany 2 vs BF3 var ett bra exempel. Massa nya grafiska finesser i BF3, men det flöt sämre och alla dessa effekter var mest ivägen sen när man väl kom igång och skulle spela på allvar (typ alla pro-spelare stänger ju av nästan alla effekter). BC2 ser mycket renare ut och lättare att se va man gör. BF3 är snyggt på Screenshots.

Ditt argument är att om man hade kunnat ha fula och roliga spel i stället för vackra och roliga spel om man hade stannat kvar på äldre kretsar. Jag hade inte uppskattat det.

Battle field 1942 vs Battle field 4:

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av kelthar:

Ditt argument är att om man hade kunnat ha fula och roliga spel i stället för vackra och roliga spel om man hade stannat kvar på äldre kretsar. Jag hade inte uppskattat det.

Battle field 1942 vs Battle field 4:
http://megagames.com/sites/default/files/game-content-images/bf1942cemod_1.jpg

http://www.offdutygamers.com/wp-content/uploads/2013/04/zzzz-aircraft.jpg

Nej, om du läser vad jag skrev. Jag menar inte att jag vill att all utveckling ska stanna av. Men det är tydligt att nyare titlar kräver oproportionerligt mer av systemet jämfört med vad man får i grafik.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Hjälpsam

Oklockat.

edit

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Moderator
Testpilot
Skrivet av Ratatosk:

Det finns inget performance benchmark utan man måste köpa spelet?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Hjälpsam
Skrivet av Dinoman:

Det finns inget performance benchmark utan man måste köpa spelet?

Ja tyvärr, jag köpte nu när de har rea, kostar 25€.
Kan ju tyckas lite blodigt, men de vill ju ha betalt för 3DMark också och här ingår i alla fall ett spel.

Spelet var default High för mig, testade Extreme, men där blev faktiskt ljussättningen lite väl discoartad, föredrar High.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inaktiv
Skrivet av Ratatosk:

@anders190: Frågar lite, därför att Nvidias strategi för DX12 just nu verkar vara att försena införandet så mycket som möjligt.
Det får mig att tivla på deras nuvarande möjlighet att nyttja DX12 vilka styrker de än har.

Väldigt lite prat om DX12 på Nvidias hemsida just nu, jag tror mig veta varför.

Ah, missade nog vad du egentligen frågade där ser jag nu.

Jo, Nvidia har ju inte direkt en historik som pekar på att de varit tidigt ute med nya DirectX-utgåvor. Tänker speciellt på DirectX 10.1 och exempelvis Assassins Creed, hehe.

Instämmer med dig, Nvidia verkar verkligen inte pusha för DirectX12 alls. Förutom förra året när man ljög om att man var den enda som stödde DirectX 12 helt vilket såklart inte stämde.

Blir väl intressantare för Nvidia när de väl får ut nya produkter på marknaden kanske.

Permalänk
Medlem
Skrivet av Ratatosk:

Ja tyvärr, jag köpte nu när de har rea, kostar 25€.
Kan ju tyckas lite blodigt, men de vill ju ha betalt för 3DMark också och här ingår i alla fall ett spel.

Spelet var default High för mig, testade Extreme, men där blev faktiskt ljussättningen lite väl discoartad, föredrar High.

Hade du inte Fury X förut eller var dom för högljudda?

Visa signatur

Coca Cola missbrukare Förbjuden dryck för mig pga diabetes
AMD älskare
Katt älskare

Permalänk
Medlem

Ja ingen imponerande boost med dx12, bra att AMD låg bättre till än Nvidia för konkurrensens skull.

Visa signatur

|| Main: Asus Z170 Pro Gaming | Intel Core i7 6700K | Corsair 4x8GB DDR4 | GeForce GTX 1070 | Linux ||

|| HTPC: MSI Z87I | Intel Core i3 4130T | Corsair 2x4GB DD3 | Intel HD graphics 4400 | Linux ||

|| NAS: Qnap TS-431P ||