Permalänk
Inaktiv
Skrivet av SCORPIUS:

@fxfighter: Detta vill jag gärna se bevis på.

Skrivet av MrAdde:

Titta bara vilken skillnad i Image Quality det är i videon mellan dessa två tillverkare. Man ser snabbt hur det röda laget hoppar över att rendera effekter för att höja sin fps. Detta förekommer patetiskt nog i otroligt många nya Directx12 titlar. Tyvärr så spelar redaktionen favoriter med AMD och håller tyst om detta i sina benchmarks. De vill inte att deras favoritföretag går i konkurs när de har det svårt.

Permalänk
Entusiast
Skrivet av anon185723:

Titta bara vilken skillnad i Image Quality det är i videon mellan dessa två tillverkare. Man ser snabbt hur det röda laget hoppar över att rendera effekter för att höja sin fps. Detta förekommer patetiskt nog i otroligt många nya Directx12 titlar. Tyvärr så spelar redaktionen favoriter med AMD och håller tyst om detta i sina benchmarks. De vill inte att deras favoritföretag går i konkurs nu när de har det svårt.

http://www.youtube.com/watch?v=o2b6Nncu6zY&t=4m30s

AMD ser ju ut att ha en hel del extra ljuseffekter som saknas på Nvidia-korten, borde inte Sweclockers rapportera om detta eller åtminstone undersöka själva om någon rapporterar det?

Visa signatur

EVGA GTX 1080 Ti | Intel Core i9-9900K | Fractal Design Celsius S24 | ASUS ROG Strix Z390-I | 32 GB DDR4 @3200Mhz | Corsair SF750 | Samsung 970 Evo Plus 1 TB (M.2) | Crucial MX 500 & 300 1TB (2,5") | Louqe Ghost S1 Ash | AOC AGON AG271QG, Eizo Foris FS2333 & TCL 75EP660 | Windows 11 64-bit

Permalänk
Avstängd

@anon185723: Det finns inte så många DX12 spel. Av de fem spel jag sett så verkar de ligga lika till, några FPS mer hit eller dit spelar inte så stor roll vare sig det är för röda eller gröna.. av de spel jag sett så har amd fördel i fps. Tomb Raider och gears of war har nvidia bättre fps på och AOtS, hitman och QS är det bättre på AMD... vad ska man satsa på? AoTs är ett fult spel tycker jag... så den bryr jag mig inte om ens... Vadå snygg graffe för ett sådant spel? Har ju ingen betydelse LOL ser mer ut som Ants vs Humans "StarCraft".. Gillar mer The Elder Scrolls, Witcher, Crysis, Assassins Creed, CoD, BF, Farcry, Batman, Arma, bilspel o.s.v. gärna singelplayer spel men också viss MP. Spel med handling och snygg grafik går i första hand.

Tack för ditt svar

MVH

Permalänk
Avstängd
Skrivet av SCORPIUS:

"Ska man välja Pascal eller ska man välja Polaris?
Vad ger mest "ögongodis" extra grafik och mer spelglädje? AMD eller Nvidia?"

Det vet vi inte än.

Återkom om ett år ca

Skrivet av SCORPIUS:

@fxfighter: Detta vill jag gärna se bevis på.

Varför då (bevisa)? Du sa ju kom TBX om ca 1 år... gör det du med da..
Använd ditt egna svar du gav mig, men till dig själv..

Det vet vi inte än.

Återkom om ett år ca

MVH

Permalänk
Inaktiv
Skrivet av MrAdde:

AMD ser ju ut att ha en hel del extra ljuseffekter som saknas på Nvidia-korten, borde inte Sweclockers rapportera om detta eller åtminstone undersöka själva om någon rapporterar det?

Det är tragiskt att folk prisar drivrutinerna till skyarna när de tar bort rök och ljuseffekter för att få några extra bilder per sekund. Drivrutiner var en gång i tiden kod för att fixa problem. I dag så är det kort sagt genvägar som tillverkare använder sig utav. En arbetare som använder sig utav flest genvägar på jobbet gör inte det bästa jobbet.

En bra drivrutin ger en korrekt bild utan problem och kompromisser. Om du mäter med verktyg så märker du direkt att gräset är grönare på ena kortet, gissa vilket...

Permalänk
Datavetare
Skrivet av RaBlack:

@Yoshman:

AMD + MS = DX12
"AMD", Nvidia och alla andra = (Mantle, OpenGL) Vulkan

https://www.youtube.com/watch?v=1u_vUWCEYXw

Är inte Vulkan att föredra nu för AMD? Nej för de tjänar just nu mer på DX12 ihop med MS.. hmmm... hur ska de ha det "open standards" eller icke... AMD verkar bullshitta runt bara och de flesta verkar gå på det... Nvidia visar var de står med sitt Gameworks, PhysX o.s.v det är deras...

men frågan är vad är bäst för oss PC gamers?

En kille skrev..
AMD has DX12 which is truly based off Mantle since MS can't even program games for their own API since it's not even their API and even NVidia went as far as putting in the "12.1" which AMD GPU's fail to perform with like NVidia fails with Async Compute..

Nvidia shows off Vulkan and Threaded Rendering.
https://www.youtube.com/watch?v=vVokMbWbvs0
as you can see in my video. Something they should work with Developers with. AMD is about open standards and you would think they would back up open standards like Vulkan more then they are currently showing.

When Async is used on Nvidia hardware it has a neg impact in performance just like when con raster / rovs is used in games on AMD hardware.

Hur ska man tolka allt som sägs?
Ska man välja Pascal eller ska man välja Polaris?
Vad ger mest "ögongodis" extra grafik och mer spelglädje? AMD eller Nvidia?

MVH

Vulkan är baserat på Mantel. Däremot kan DX12 omöjligen vara baserat på Mantel då jobbet med DX12 startade innan Mantle ens var påtänkt. I praktiken spelar det ingen roll vem som är baserad på vad, Apples Metal, DX12 och Vulkan är i grunden väldigt snarlika i sin design. Ska man absolut ha en pisstävling om vem som var "först" så var Apple först med en officiell lansering, å andra sidan har OpenGL haft leverantörsspecifika tillägg som möjliggör det mesta som finns i dagens "low-level" APIer sedan 2009....

Givet vad som är känt om Pascal och Polaris idag är det en total omöjlighet att säga något om vem som kommer ge mest "ögongodis". Du får helt enkelt hänga med under hösten och se precis som alla vi andra

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

han på adoretv e ju sån jäkla "påhittare" så det finns inte. Han ser saker som inte finns å skapar någon slags "AMD master plan to brick Nvidia cards". Kolla på detta klipp ex: https://www.youtube.com/watch?v=aSYBO1BrB1I

han sprider dynga å finns flera som går på skiten... aja... Slutet e nära, köp amd annars kan ni inte lira spel på pc. Om man ska tro snubben vill säga

Han verkar ju kunnig så satt säga men hans konspirationsteori alltså....

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Medlem

Kört AoS mest för att testa och kan säga att DX12 funkar sjukt bra på min burk iaf.
Både min Cpu och Gpu låg ca 10 grader kallare i dx12, bara det gillade jag skarp.
Jag hade även ca 10 fps mer i dx12.
85fps average 1440p High.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Hjälpsam
Skrivet av Defender:

Kört AoS mest för att testa och kan säga att DX12 funkar sjukt bra på min burk iaf.
Både min Cpu och Gpu låg ca 10 grader kallare i dx12, bara det gillade jag skarp.
Jag hade även ca 10 fps mer i dx12.
85fps average 1440p High.

AoS verkar väldigt bra optimerat, tror inte alls att Nvida fungerar dåligt i DX12, det känns mer som att AMD inte fungerade lika bra i DX11 som Nvidia, nu är det mera jämnt.
Dock verkar DX12 spel suga i sig mer arbetsminne, gissar på att du har 16 GB eller mer.
Tur att minne är skapligt billigt nu får tiden.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam

@Yoshman: Att du inte tjänar så mycket på DX12 är faktiskt ditt fel, hade du inte köpt en så in helvete vass CPU, utan valt en klenare, hade du också vunnit en hel del.
Se på mig, jag är ett föredöme med min FX8350.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av anon185723:

Titta bara vilken skillnad i Image Quality det är i videon mellan dessa två tillverkare. Man ser snabbt hur det röda laget hoppar över att rendera effekter för att höja sin fps. Detta förekommer patetiskt nog i otroligt många nya Directx12 titlar. Tyvärr så spelar redaktionen favoriter med AMD och håller tyst om detta i sina benchmarks. De vill inte att deras favoritföretag går i konkurs när de har det svårt.

http://www.youtube.com/watch?v=o2b6Nncu6zY&t=4m30s

Jag skulle då inte utläsa något från den videon, verkar inte vara samma skärmstorlek (utzoomad), sedan ser det ut som de filmar en skärm på AMD sidan då det finns nån sorts skugga samt bloom (reflektion) på halva skärmen, notera också de regnbågsfärgade delarna i slutet som ofta uppstår av kamera.

Permalänk
Avstängd
Skrivet av Defender:

Kört AoS mest för att testa och kan säga att DX12 funkar sjukt bra på min burk iaf.
Både min Cpu och Gpu låg ca 10 grader kallare i dx12, bara det gillade jag skarp.
Jag hade även ca 10 fps mer i dx12.
85fps average 1440p High.

Skrivet av Dalton Sleeper:

Jag skulle då inte utläsa något från den videon, verkar inte vara samma skärmstorlek (utzoomad), sedan ser det ut som de filmar en skärm på AMD sidan då det finns nån sorts skugga samt bloom (reflektion) på halva skärmen, notera också de regnbågsfärgade delarna i slutet som ofta uppstår av kamera.

Ser inte ens ut likadant på båda skärmarna. Mer effekter på AMD sidan och mer grönt på NV sidan.
@Defender Hur ser det ut då du testade? Vad får du på ULTRA?

MVH

Permalänk
Datavetare
Skrivet av Ratatosk:

@Yoshman: Att du inte tjänar så mycket på DX12 är faktiskt ditt fel, hade du inte köpt en så in helvete vass CPU, utan valt en klenare, hade du också vunnit en hel del.
Se på mig, jag är ett föredöme med min FX8350.

Har faktiskt aldrig byggt en stationär PC så här långt där jag lagt mer pengar på GPUn än på CPUn

Men precis som du påpekar så är det i grunden ändå så att DX12 får den fördel man främst pratade om: kostnaden för att kommunicera med GPUn är väsentligt billigare i DX12 oavsett vilket GPU man använder. Problemet är att alla moderna Intel i5/i7 CPUer är starka nog att i princip helt lägga flaskhalsen på GPUn redan i DX11, även om man har de absolut snabbaste GPU-modellerna.

Intel har gjort en del arbete för att utnyttja den CPU-kraft som frigörs av DX12. Detta arbete är främst för deras iGPUer men i teorin skulle man kunna göra liknande saker för alla GPUer. Vad man gjort är att göra en del preprocessning av 3D-världen med hjälp av SSE/AVX, resultatet av detta är att man kan minska mängden data som skickas till GPUn då man med CPUn eliminerar en del saker som inte kan ge något bidrag till det som renderas (t.ex. ligger bakom något).

Edit: HardOCP har precis haft en liten artikel angående just DX11 kontra DX12 och CPU-skalning, där ser man att med svag CPU (simulerad i deras test m.h.a. en 5960X klockad till 1,2 GHz) så får man en rejäl boost med DX12. En lågt klockad 5960X blir ju lite som konsoler även om denna CPU är runt 50 % snabbare per CPU-kärnavid 1,2 GHz (än Jaguar vid 1,6-1,75 GHz) plus att konsolerna har två kärnor reserverade för systemet så spel har tillgång till sex stycken kärnor.

Dold text

Vad som inte framgår är att en stark CPU är ändå önskvärd även med DX12. En stark CPU ger mycket lägre FPS-varians, något som väsentligt ökar upplevd prestanda men som är relativt svårt att sätta siffror på.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare

DX12 diskuterades föga oväntat en hel del på GDC (Game Developers Conference). Även om det mesta har nämns på dessa forum är några saker värt att peka på igen

  • med DX12 har utvecklaren långt mer kontroll än tidigare, problemet är dock att underliggande implementationsdetaljer i maskinvara flyter upp till ytan och DX12 titlar måste explicit optimera för olika GPU-modeller, har man inte resurser till detta är det bättre att använda DX11

  • med dagens GPUer är den enda egentliga fördelen med DX12 lägre CPU-last, system med väldigt stark CPU kommer antagligen aldrig få någon fördel av DX12 (med dagens GPUer)

  • DX12 ger utvecklarna väldigt bra kontroll över vad som ligger i VRAM och vad som ligger i system RAM (vidmem over-commitment), om detta kommer utnyttjas i stor utsträckning klarar man sig längre med mindre VRAM fast det blir långt viktigare att ha maximal PCIe-bandbredd (så kanske blir en relevant fördel med PCIe 3.0 i något läge...)

  • DX12 gör det möjliga att använda väldigt många CPU-trådar, men detta måste explicit hanteras och gör man inte detta utnyttjar DX12 multicore CPUer klart sämre än DX11 då DX11 relativt automatiskt använder två CPU-trådar (fast å andra sidan skalar DX11 inte jättebra förbi två CPU-trådar)

  • async compute är som vi alla vet så här långt meningslöst på Nvidias GPUer (hanteras ändå i programvara), på GCN kan det rätt använt ge upp till ca 10 % boost. Är dock inte helt enkelt att använda async compute då vissa arbeten (t.ex. de som konsumerar stora mängder data) orsakar "cache-trashing" och kan då minska prestanda jämfört med att inte använda async compute alls (SMT på CPUer har samma problem vilket ger en vink om hur närbesläktade dessa tekniker är). Den generella regeln är: använd bara async compute när du bevisat att beräkningsenheter är underutnyttjade, annars låt bli. Så även om Nvidia skulle kunna fixa detta för Maxwell är det långt färre fall där det är vettig att använda jämfört med CGN, är numera väldigt nära 100 % säker att "async compute" aldrig kommer stödjas på Maxwell.

  • ovan gör också att async compute och explicit multiadapter med iGPU faktiskt är relativt ortogonala tekniker (trots att de båda i grunden har exakt samma gränssnitt, separata beräkningsköer). iGPUer verkar lämpliga att använda för t.ex. post-processing medan det står som en av de saker man explicit inte bör använda async compute till (är bandbreddskrävande -> cache trashing om man köra flera saker parallellt). Fast utnyttjande av iGPU är också beroende på att systemet har väldigt bra PCIe-kapacitet, så är nog också i praktiken beroende på PCIe 3.0

  • "Conservative Rasterizaton" möjliggör många nya ljustekniker, i praktiken realtids ray-tracing. Men detta är egentligen inte DX12 specifikt, finns även i DX11.3 och stöds från Polaris, Maxwell gen 2 samt Skylake iGPU

Även om tekniken är intressant så är nog ändå den viktigaste observationen att: DX12 är definitivt inte för alla, har man inte tid, pengar och ingenjörsresurser är DX11 ett bättre val på alla sätt och vis under överskådlig tid.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam

@Yoshman:

  • Punkt 1 bör i alla fall de studior som släpper AA titlar ha resurser till. (*)

  • Punkt 2 är en fördel för mig.

  • Punkt 3 gör även att kraven på mer arbetsminne ökar, något jag ofta sett i tester, satsa på minst 16GB ni som vill använda DX12.

  • Punkt 4 bör även det ingå i AA-titlar. (*)

  • Punkt 5 något vi länge misstänkt.

  • Punkt 6 kanske ses som komplement, kanske en Nvidia-path med iGPU och en AMD med Async shaders?

  • Punkt 7 finns som sagt redan i DX11, känns inte som att man kan klassa ett spel som DX12, om detta är enda finessen.

(*) Tycker att det är ganska kasst att så många större studior misslyckats så med DX12, Ashes of Singularity, har ju klarat biffen galant, och Oxide är ingen stor studio, jag tror att satsningen i många fall vait ganska halvhjärtad och mest syftat till att kunna stämpla DX12 på produkten.

Jupp finns nog goda skäl för inidieutvecklare att fortsätta med DX11, i alla fall till dess att spelmotorerna anpassats mer till DX12.
Sedan borde det ju ligga i AMD:s och Nvidias intressa att ge stöd och hjälp till en början.

edit Angående minne, AoS kräver 32 GB arbetsminne för att skapa stora kartor.
http://steamcommunity.com/app/228880/discussions/1/3640401666...

edit 2 Från tråden du länkade.

Skrivet av primey:

"Developers can’t mix and match DirectX 11 and DirectX 12. Either they commit to DirectX 12 entirely, or they shouldn’t use it"
Try telling that to Avalanche, IO Interactive, Nixxes/Crystal Dynamics and Studio Wildcard

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Digital fyndjägare

Nvidia visar upp nya resultat gällande DirectX 12 med ny drivrutin (378.74), upp till 33%.

NVIDIA Announces GameWorks DX12 (Tuesday, February 28, 2017)

Game Ready Driver Optimized for DX12 NVIDIA also revealed an upcoming Game Ready Driver optimized for DirectX 12 games. The company refined code in the driver and worked side by side with game developers to deliver performance increases of up to 16 percent on average across a variety of DirectX 12 games, such as Ashes of the Singularity, Gears of War 4, Hitman, Rise of the Tomb Raider and Tom Clancy's The Division.(1)

(1) Figure averages the percentage increase of benchmark numbers in the following: GeForce GTX 1080 at 3840x2160 with launch driver 368.81 vs 378.74 on an Intel Core i7 5930K, 16GB DDR4 using Win10 x64. Ashes of the Singularity, Crazy Preset (46.5, 50.9 or 9%), Tom Clancy's The Division 1.6, Max Settings + 1x SMAA Ultra (31.5, 32.7 or 4%) Hitman, High Settings + High SSAO (50.6, 62.1 or 23%), Rise of the Tomb Raider, Very High + 2x SSAA (20.5, 27.2 or 33%), and Gears of War 4, Ultra Preset (41.2, 45.2 or 10%).

Nvidia: http://nvidianews.nvidia.com/news/nvidia-announces-gameworks-...

http://i.picpar.com/L0oc.png

@Yoshman:

Visa signatur

• In My Defens God Me Defend •