DirectX 12 med Ashes of the Singularity

Permalänk
Medlem
Skrivet av BrottOchStraff:

Förresten, skulle inte den stora vinsten med DX12 vara lägre CPU-belastning? Kanske skulle slänga in ett prestandatest med en i3a eller en FX6300

Jo det finns en länk någonstans ovan bland kommentarerna där man kan läsa av detta.
Tidigare postad länk

Mycket intressant faktiskt.
Nu har jag inte detaljstuderat denna ännu men tittade lite snabbt och man ser att det är ganska stor prestanda vinster för speciellt mellansegmentet.
Värt att titta på är också att det ser ut som att AMD korten kan tacka DX12 rejält pga den mycket bättre bättre multitrådningen. Något AMD verkar haft större problem med i DX11 än Nvidia haft.
Om det senare är fallet kan man nog anta att detta även också kommer att gälla andra spel än bara det ovan nämnda diskuterade. Är det så kan det blir riktigt intressant framöver.

Permalänk
Datavetare
Skrivet av Ratatosk:

Används inte dessa fences och synkroniseringar inom anropen í varje kort, inte för att synkronisera anropen mellan korten?

Fences kan användas även mellan kort. Från DX12 dokumentationen

"Multiple adapters are referenced as nodes. in the API"

"When calling the following ID3D12Device APIs, applications do not need to specify a set of nodes that the API call will be associated with because the API call applies to all nodes:"

Där ingår bl.a. CreateFence() och en rad andra saker för att definiera sin pipeline (som därför kan innefatta flera noder, d.v.s flera GPUer, på olika sätt).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Intressant resultat!

För att ge lite perspektiv till den enorma hyllningen av Nvidias DX11-drivrutiner har de varit horribla till bärbara efter 347.88 som släpptes för snart ett år sedan (!). Den ena katastrof-drivern efter den andra, speciellt för Kepler-kort.

Visa signatur

Tester: Gigabyte P55W v4 | Clevo P771ZM | Aorus X7 Pro | Gigabyte P35X v3
Clevo P771ZM (U705) | i7 4790K | 980M 8 GB | 512 GB 850 Pro | 17.3" LG IPS matte 96 Hz | 16 GB 1866 MHz | Killer AC 1525 |
Clevo P150HM | [strike]i7 2670QM[/strike] i7 2960XM | [strike]6990M[/strike] 7970M |

Permalänk
Datavetare
Skrivet av Dinoman:

Ganska givet att denna tråden skulle förvandlas till en skitfest.

Att detta spelet flyter på så fint på AMD är rätt logiskt. GCN är ju betydligt effektivare med geometri på grund av hur deras stream processorer är uppbyggda, DX12 tar ju bort den overhead som annars är en flaskhals för att producera så många geometriska objekt.

Maxwell är betydligt sämre på geometri och bättre på tesselering och post-fx.

Jag tror inte man ska dra för stora växlar på detta men skulle det visa sig vara en tydlig trend så är ju detta ett bra tecken för AMD.

Maxwell är klart snabbare på geometri. Det innefattar både tessellation och scener som innehåller väldigt komplicerade objekt, det senare är dock inte möjligt DX11 så tessellation är enda möjligheten att få geometri att bli en flaskhals p.g.a. av GPU.

CGN är klart snabbare på shader-effekter, vilket i praktiken betyder att den också är snabbare på post-processing då väldigt mycket sådant använder shaders (plus att post-processing nog passar "async-shaders" riktigt bra). I DX11 har man även här en flaskhals i att allt för många shader-steg kan generera allt för många "draw-calls" så flaskhalsen hamnar i APIet (CPUn) i stället för GPUn.

AotS är uppenbarligen extremt shader-tungt, när shader-kapacitet är flaskhals så är det förväntat ett 390X prestera ungefär som ett 980i, 380 ungefär som ett 970.

Om det kommer DX12 spel som i stället använder möjligheterna i detta API för att ha extremt komplex geometri så är den förväntade relativa prestanda dels att Fury X kommer prestera mer eller mindre identiskt med 390X, båda dessa kommer i det läget med största sannolikhet prestera sämre än 970.

Båda dessa fall kan illustreras rätt bra med syntetiska tester, om man låter shader-kapacitet vara flaskhals får man

vilket är rätt nära vad man ser i AotS i "extreme" inställning. Lösning om man vill köra detta på Maxwell är enkel: dra ner shader-intensiva saker!

Det andra fallet där geometrikapacitet är flaskhals ser ut så här

Så länge detta händer p.g.a. tessellation är lösningen enkel för GCN-ägare, minska nivån eller slå av tessellation. Börjar spel i stället använda modeller med så många trianglar att detta blir en flaskhals har GCN-ägare eventuellt ett problem då detta sällan är något som går att justera med inställningar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd

Testa 2 st Fury X i CrossFire också!
Gör gärna ett nytt prestanda index för CrossFire/sli uppställningar.

Permalänk
Medlem
Skrivet av Ruzikx:

nvidia fanboy tvelander tittar fram igen.

Kan du inte bara vara glad att det kanske bildas lite konkurrans nu?

Fast han framförde något som ingen tidigare i denna tråd gjort och som är av högsta relevans om ej insatta personer läser tråden. Visst är det kul att AMD har titlar de kan stoltsera med, men efter alla skriverier där speltillverkaren gnäller på Nvidia så kan man ju bara ana att en och annan hund ligger begraven här.

Sen är det väl så att AMD:s kort presterar bättre i DX12 än i DX11 (i förhållande till Nvidia) och det är speciellt kul för alla befintliga ägare av AMD-kort. Men sen kan man alltid se det från två sätt. Har AMD varit så dåliga på att utveckla drivar för DX11 att hoppet blir så stort med DX12 när man kan jobba närmare grafikkortet?

Men det är klart att det är kul att det går bra för AMD, de behöver det! Men just denna speltiteln är ganska omnämnd och resultatet var väntat. Men när allt blåst förbi och vi har spelresultat för många DX12 spel så kan man ju bara hoppas att allt är jämnare än någonsin.

Edit: Jag försöker inte försvara Nvidia, men det är inte fel att se saker objektivt ur flera perspektiv. Det skulle t.ex. inte förvåna mig om speltillverkaren bad om hjälp från både Nvidia och AMD, men där Nvidia insåg att det spelar ingen roll hur mycket de försöker hjälpa dem så kommer deras spel (som då kanske är shader-heavy) att prestera sämre på Nvidias kort. Det hade sett dåligt ut på pappret om Nvidia försökt hjälpa till medan AMDs kort ändå blev bättre.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av reflux:

Värt att notera?

Update 02/24: NVIDIA sent a note over this afternoon letting us know that asynchornous shading is not enabled in their current drivers, hence the performance we are seeing here. Unfortunately they are not providing an ETA for when this feature will be enabled.

http://www.anandtech.com/show/10067/ashes-of-the-singularity-...

Jag läste också anandtechs tester. Hur mycket kan man egentligen optimera i drivrutiner för t.ex. asynkrona beräkningar i dx12 på maxwell kort? Om asynkrona beräkningar blir stort inom kommande dx12 titlar så vill jag verkligen veta, så man vet om mitt gtx 980ti är värt att ha kvar. Att varje år köpa ett nytt highend kort är inte aktuellt och därför är ett inköp av pascal uteslutet.

Permalänk
Medlem

@BrottOchStraff: Drivrutiner från AMD är skillnaden.

Visa signatur

[i7 6700k @4500|Asus Z170 Pro Gaming|Corsair Vengeance DDR4 3200MHz XMP |EVGA GQ 1000W Hybrid Modular 80+|MSI GeForce GTX 1080|Windows 10 Pro Swe|Aoc 28-4K|SSD Samsung 850 evo 250 Gb|

Permalänk
Medlem
Skrivet av xpanterx:

Kul för dem med Fury X, krossar Nvidia i alla upplösningar, även med AC avstängt :), man ångrar att man bytte lag nu...

Gameworks titlar kommer fortfarande flyta bättre på Nvidia då dom är anpassade för att handikappa AMD.
Men som testerna ser ut nu så verkar Maxwell korten inte prestera alls bra med DX12, AOS och Doom mm pekar på det

Visa signatur

CPU: 5800x3d
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Datavetare
Skrivet av hakd:

Gameworks titlar kommer fortfarande flyta bättre på Nvidia då dom är anpassade för att handikappa AMD.
Men som testerna ser ut nu så verkar Maxwell korten inte prestera alls bra med DX12, AOS och Doom mm pekar på det

Ser inte hur du kan dra slutsatsen att Maxwell inte presterar bra i DX12. Vad detta visar är att GCN presterar bättre när shaders är flaskhals samt att det övertag Nvidia hade via drivers i DX11 ser ut att vara borta i DX12 (inget av detta borde vara en nyhet).

Med DX12 är det också fullt möjligt att göra titlar som använder modeller med långt fler trianglar (kräver massor med draw-calls), i det läget kommer Maxwell gynnas långt mer än GCN.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Ser inte hur du kan dra slutsatsen att Maxwell inte presterar bra i DX12. Vad detta visar är att GCN presterar bättre när shaders är flaskhals samt att det övertag Nvidia hade via drivers i DX11 ser ut att vara borta i DX12 (inget av detta borde vara en nyhet).

Med DX12 är det också fullt möjligt att göra titlar som använder modeller med långt fler trianglar (kräver massor med draw-calls), i det läget kommer Maxwell gynnas långt mer än GCN.

Ta en titt på dagens titlar, titlarna AMD har "problem" med så har Nvidia klivit in med Gameworks och extrem tesselation enbart för att Maxwell klarar det galant och AMD bli "handikappade" då dom inte klarar det lika bra.

Titlar utan Gameworks så presterar AMD riktigt bra för pengarna, Doom med DX12 visar liknande prestanda skillnad som AOS så det verkar ändå som flera och flera tillverkares spel Gynnar GCN före Maxwell.

Nästa DX12 titel runt hörnet utan Failworks är Hitman, ska bli trelivt att se hur det presterar. Enligt dom läkta Alpha bilderna och klippen så verkar AMD prestera grymt även där, men det är trots allt bara rykten ännu.

(60fps cap, inget SLI/xfire stöd)

Ja jag är fullt medveten om att det är en Alpha men en bra riktlinje

Visa signatur

CPU: 5800x3d
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Inaktiv
Skrivet av hakd:

Ta en titt på dagens titlar, titlarna AMD har "problem" med så har Nvidia klivit in med Gameworks och extrem tesselation enbart för att Maxwell klarar det galant och AMD bli "handikappade" då dom inte klarar det lika bra.

Titlar utan Gameworks så presterar AMD riktigt bra för pengarna, Doom med DX12 visar liknande prestanda skillnad som AOS så det verkar ändå som flera och flera tillverkares spel Gynnar GCN före Maxwell.

Nästa DX12 titel runt hörnet utan Failworks är Hitman, ska bli trelivt att se hur det presterar. Enligt dom läkta Alpha bilderna och klippen så verkar AMD prestera grymt även där, men det är trots allt bara rykten ännu.

(60fps cap, inget SLI/xfire stöd)
http://cdn.techfrag.com/wp-content/uploads/2016/02/DOOM_Alpha_bech_1.jpg
Ja jag är fullt medveten om att det är en Alpha men en bra riktlinje

Kör inte DOOM OpenGL till och med? Var iallafall vad länken till den där ryska sidan antydde igår och lite förvånande om AMD skulle fungera så bra där.

AMD har inte direkt lagt ner mycket jobb på att optimera för OpenGL. Och varför skulle de det när det ändå används så lite i spel på PC idag. Vulkan däremot, där lär vi nog få se klart bättre grejor.

Permalänk
Hjälpsam

Är det någon som vet om det finns Nvidia sponsrade DX12 titlar på gång?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av anon5930:

Kör inte DOOM OpenGL till och med? Var iallafall vad länken till den där ryska sidan antydde igår och lite förvånande om AMD skulle fungera så bra där.

AMD har inte direkt lagt ner mycket jobb på att optimera för OpenGL. Och varför skulle de det när det ändå används så lite i spel på PC idag. Vulkan däremot, där lär vi nog få se klart bättre grejor.

Stämmer, Med ställ Doom mot AOS och renderingstekniken verkar inte spela mycket roll på hur korten presterar emot varandra (Grön vs Röd).

Jupp det är den ryska sidan jag länkade, ingen annan som gått ut med siffror ännu.

Visa signatur

CPU: 5800x3d
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Inaktiv
Skrivet av Ratatosk:

Är det någon som vet om det finns Nvidia sponsrade DX12 titlar på gång?

Det finns det alltid, men inga kända vad jag vet. Far Cry Primal borde kunna vara en då Ubisoft och Nvidia är täta men inte hört eller sett något om just det spelet. Och när det bara är ett par dagar kvar så borde det också vara känt vid det här laget.

Med tanke på att Nvidia plockade typ alla större titlar förra året så lär väl en stor del av årets titlar bli "wreckade".
Samtidigt verkar AMD satsa lite hårdare nu i år, närmast lär ju vara nya Hitman.

Skrivet av hakd:

Stämmer, Med ställ Doom mot AOS och renderingstekniken verkar inte spela mycket roll på hur korten presterar emot varandra (Grön vs Röd).

Jupp det är den ryska sidan jag länkade, ingen annan som gått ut med siffror ännu.

Det har du rätt i förstås.

Permalänk
Hjälpsam

@anon5930: Frågar lite, därför att Nvidias strategi för DX12 just nu verkar vara att försena införandet så mycket som möjligt.
Det får mig att tivla på deras nuvarande möjlighet att nyttja DX12 vilka styrker de än har.

Väldigt lite prat om DX12 på Nvidias hemsida just nu, jag tror mig veta varför.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av BrottOchStraff:

EDIT: f.ö kul att se att 680 håller sig så bra forfarande i 1080p. Väldigt bra begagnatköp, för under 1000kr många gånger.

Jag skulle snarare peka ut 7970 på detta område, ett kort som lanserades för över 3 år sen.

Ang testresultaten så är jag inte alls förvånad. Skrivit om detta en del innan sedan väldigt länge.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Skrivet av Wyver:

Den största skillnaden är att AMD inte optimerar sina drivrutiner så att gamla kort presterar sämre i nya spel. Som Nvidia tycks göra.
Gameworks

En mycket intressant video som även Sweclockers borde kolla om det verkligen stämmer att Nvidia 700 började prestera sämre i titlar med nya drivrutiner efter att 900 serien släpptes

Om det här stämmer, fyfan aldrig mer Nvidia. Definitivt något för SweC att titta på.

// Förbannad GTX 780 ägare

Skickades från m.sweclockers.com

Visa signatur

System: 2500K @4.1GHz, GTX 780, 8GB DDR3 @1866MHz

Permalänk
Medlem
Skrivet av ManligaMärta:

Om det här stämmer, fyfan aldrig mer Nvidia. Definitivt något för SweC att titta på.

// Förbannad GTX 780 ägare

Skickades från m.sweclockers.com

Detta har varit på agendan länge. Tyvärr så stämmer det.

Visa signatur

7800xt, 5800x3d

Permalänk
Master of Overkill
Skrivet av Ruzikx:

nvidia fanboy tvelander tittar fram igen.

Kan du inte bara vara glad att det kanske bildas lite konkurrans nu?

Nvidia fanboy mm förlåt har 4x fury x beställda sorry.....
Jag är sista fanboy du kan hitta
Jag bara säger fakta så folk inte tror detta är guds gåva...

Skickades från m.sweclockers.com

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Ruzikx:

nvidia fanboy tvelander tittar fram igen.

Kan du inte bara vara glad att det kanske bildas lite konkurrans nu?

Vad är du för sorlig människa ursäkta men bara för någon nämner att ett spel är AMD stöt vilket det nu är varför hoppas på en personen :S om det han är ju bara ger ju bara information till en person som i sitt utryckande verkade tro att anledning till att spelet presterade så mycket bättre på AMD var för att AMD är bättre då det är olika resultat i alla spel är det ju helt klart att man ska peka ut att det är en stor sanolikhet att det är ett AMD spel så personen som vill köpa ett grafikort inte köper ett baserat ändå på detta spelet och tror att det kommer ha så bra siffror i alla spel.

det är inget nytt att ett spel bakat av AMD kommer förmodligen flytta bättre på AMD och ett nivida spel kommer i stor sannolikhet flytta bättre på Nivida kort

Visa signatur

Det är jag som är Stav felet här på forumet (Dyslexi)

Permalänk
Medlem
Skrivet av Ratatosk:

@anders190: Frågar lite, därför att Nvidias strategi för DX12 just nu verkar vara att försena införandet så mycket som möjligt.
Det får mig att tivla på deras nuvarande möjlighet att nyttja DX12 vilka styrker de än har.

Väldigt lite prat om DX12 på Nvidias hemsida just nu, jag tror mig veta varför.

Du är nog inte alls ute på fel spår. Finns mycket att läsa om detta och är hälften sant så är det spot on. Synd att speltillverkare uppenbarligen ser de ekonomiska fördelarna att låta Nvidia "hjälpa" till med sina produkter.
Tanken på att dessa kort sitter i alla utom ett av mina system får mig nästan att må lite illa

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Man kan inte annat än imponeras av Nividias drivrutiner för Dx11.
Närmare perfektion än så är svårt att komma.

Imponeras/perfektion? Tyvärr så har man inget att jämföra med just för att dom stänger ute alla andra aktörer genom låsta standarder, använder sig av monopolism och dessutom konstruerar sina GPU'er efter en API, snarare än tvärtom som man borde, dvs att konstruera en GPU som är så kraftfull och effektiv som möjligt och sen köra rätt API och kod som kan utnyttja detta. Det är vad GCN är och har varit sedan den arkitekturen kom, extremt mycket oanvänd prestanda.

Tycker nvidia är ett riktigt sketföretag som dom håller på. Vi fick se på gimpade 970 korten. Ger mig fan på att DX12 är gimpat i arkitekturen också då dom alltid haft svagare beräkningskapacitet, men i bästa fall gimpade drivrutiner för att få alla nvidia-anhängare att köpa Pascal kort. Lär er av äldre generationer som presterar kasst väldigt tidigt jämfört med AMD's kort. Historien upprepar sig ett antal gånger, så det är knappast någon slump längre.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Datavetare

@hakd: du är medveten om att tessellation inte är en Gameworks teknik? De flesta spel som använder tessellation gör det utanför kontext av Gameworks då det endast är Hairworks och Waveworks som bygger på DX11-tessellation.

Kan inte säga att jag är speciellt imponerad av vad spel åstadkommit med Hairworks så här långt, fast är det något mer spel än Witcher 3 som använd denna teknik? Där är det ju knappast Hairworks i sig som är problemet, problemt är hur utvecklarna valde att använda Hairworks i Witcher 3 (nivån på tessellation dikteras inte utan Hairworks utan är en parameter som utvecklaren måste ställa in).

Sättet Waveworks används i Just Cause 3 fungerar uppenbarligen OK på GCN (används även på konsolerna) och resultatet är den bästa simulering av stor vattenmassa jag någonsin sett så här långt. Waveworks finns numera integrerad i Unreal Engine 4. Det Waveworks gör är icke-trivialt -> kostar pengar att utveckla, utan Gameworks hade t.ex. JC3 inte haft samma kvalité på rendering av vatten. Så Gameworks är inte alltid dåligt, verkar mest handla om att utvecklarna ens ska ta sig tiden att ställa in några parametrar så det blir en rimlig last för dagens GPUer.

Rise of the Tomb Raider använder en del saker från Gameworks, men dess användning av tessellation är helt på eget bevåg då det inte är del av någon Gameworks teknik som spelet använder.

Grejen med DX11 är att tessellation är det enda sättet man kan göra scener med riktigt många trianglar, min poäng var att AotS och eventuellt Doom inte kan används för att dra slutsatsen att DX12 passar Maxwell illa. DX12 undanröjer hindren att skapa betydligt mer detaljerade objekt, något som kan leda till spel som blir lika begränsade av geometrikapacitet som AotS är av shader-kapacitet. Om (eller betydligt mer sannolikt när) sådana titlar dyker upp så kommer Maxwell vara den design som gynnas mest av DX12 av dagens kretsar, dock mycket möjligt att alla dagens GPUer är gammal skåpmat när det väl händer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av 2good4you:

Imponeras/perfektion? Tyvärr så har man inget att jämföra med just för att dom stänger ute alla andra aktörer genom låsta standarder, använder sig av monopolism och dessutom konstruerar sina GPU'er efter en API, snarare än tvärtom som man borde, dvs att konstruera en GPU som är så kraftfull och effektiv som möjligt och sen köra rätt API och kod som kan utnyttja detta. Det är vad GCN är och har varit sedan den arkitekturen kom, extremt mycket oanvänd prestanda.

Tycker nvidia är ett riktigt sketföretag som dom håller på. Vi fick se på gimpade 970 korten. Ger mig fan på att DX12 är gimpat i arkitekturen också då dom alltid haft svagare beräkningskapacitet, men i bästa fall gimpade drivrutiner för att få alla nvidia-anhängare att köpa Pascal kort. Lär er av äldre generationer som presterar kasst väldigt tidigt jämfört med AMD's kort. Historien upprepar sig ett antal gånger, så det är knappast någon slump längre.

Tycker detta inlägg från AnandTech träffar så mitt i prick

"By the time DX12 becomes commonplace, I'm sure they will have cards that were built for DX12.
It makes a lot of sense to design your cards around what will be most useful today, not years in the future when people are replacing their cards anyways. Does it really matter if AMD's DX12 performance is better when it isn't relevant, when their DX11 performance is worse when it is relevant?"

Det är ett väldigt gnäll på Nvidia i SweC forum, men egentligen handlar det bara om att Nvidia vara långt mer framgångsrik att ge kunderna en lösning som fungerar bra idag medan de som gnäller pekar på att AMD har en lösning som hindras av DX11 men som kommer visa sin styrka när väl DX12/Vulkan spelen kommer. Det rationella valet för mig som kund är att välja lösning som är bäst just idag, inte välja något som kanske är bättre imorgon. Tyvärr för AMD är majoriteten av kunderna rationella i sina val för 80/20 fördelningen i marknadsandel skulle jag säga är fullt rimlig givet hur det sett ut de senaste 1,5-2 åren.

I DX11 krävs det långt fler transistorer och därmed en dyrare och törstigare krets för att matcha både Kepler men framförallt Maxwell. D.v.s. GCN må ha vara en bra design i grunden, men den lanserades vid fel tidpunkt. Det gör inte Maxwell "gimpad", utan det visar bara att Nvidia var långt bättre att göra något som passade den teknik som var aktuell under kretsens glansdagar. Även om AotS skulle vara fullt representativ för hur DX12 titlar presterar i genomsnitt så skulle jag ändå säga att Maxwell inte har varit ett dålig köp upp till nu + majoriteten av alla titlar som släpps under detta år kommer fortfarande vara DX11.

Att Nvidia medvetet skulle paja för sina äldre kort är total foliehattssvammel. Sanningen är att de tekniker som används i spel råkar passa Kepler illa, Maxwell är en bättre designad krets för dagens spel. I AotS är shader-kapacitet en enorm flaskhals något som inte varit fallet i något annat spel så här lång. 780Ti har något bättre shader-kapacitet än 970, 780Ti presterar också bättre än 970 i AotS, vilket knappast skulle vara fallet om drivers artificiellt handikappade Kepler. I majoriteten av dagens spel ligger flaskhalsen i andra delar än shaders, flaskhalsen verkar ha förskjutits allt mer mot saker där Maxwell är klart starkare än Kepler.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Om detta är en tit i spåkulan så kommer folk ändå köpa nvidia, pågrund av att det är vad alla tror är bäst.

Skickades från m.sweclockers.com

Visa signatur

En dator

Permalänk
Medlem
Skrivet av Yoshman:

Tycker detta inlägg från AnandTech träffar så mitt i prick

"By the time DX12 becomes commonplace, I'm sure they will have cards that were built for DX12.
It makes a lot of sense to design your cards around what will be most useful today, not years in the future when people are replacing their cards anyways. Does it really matter if AMD's DX12 performance is better when it isn't relevant, when their DX11 performance is worse when it is relevant?"

Det är ett väldigt gnäll på Nvidia i SweC forum, men egentligen handlar det bara om att Nvidia vara långt mer framgångsrik att ge kunderna en lösning som fungerar bra idag medan de som gnäller pekar på att AMD har en lösning som hindras av DX11 men som kommer visa sin styrka när väl DX12/Vulkan spelen kommer. Det rationella valet för mig som kund är att välja lösning som är bäst just idag, inte välja något som kanske är bättre imorgon. Tyvärr för AMD är majoriteten av kunderna rationella i sina val för 80/20 fördelningen i marknadsandel skulle jag säga är fullt rimlig givet hur det sett ut de senaste 1,5-2 åren.

I DX11 krävs det långt fler transistorer och därmed en dyrare och törstigare krets för att matcha både Kepler men framförallt Maxwell. D.v.s. GCN må ha vara en bra design i grunden, men den lanserades vid fel tidpunkt. Det gör inte Maxwell "gimpad", utan det visar bara att Nvidia var långt bättre att göra något som passade den teknik som var aktuell under kretsens glansdagar. Även om AotS skulle vara fullt representativ för hur DX12 titlar presterar i genomsnitt så skulle jag ändå säga att Maxwell inte har varit ett dålig köp upp till nu + majoriteten av alla titlar som släpps under detta år kommer fortfarande vara DX11.

Att Nvidia medvetet skulle paja för sina äldre kort är total foliehattssvammel. Sanningen är att de tekniker som används i spel råkar passa Kepler illa, Maxwell är en bättre designad krets för dagens spel. I AotS är shader-kapacitet en enorm flaskhals något som inte varit fallet i något annat spel så här lång. 780Ti har något bättre shader-kapacitet än 970, 780Ti presterar också bättre än 970 i AotS, vilket knappast skulle vara fallet om drivers artificiellt handikappade Kepler. I majoriteten av dagens spel ligger flaskhalsen i andra delar än shaders, flaskhalsen verkar ha förskjutits allt mer mot saker där Maxwell är klart starkare än Kepler.

Precis, det var det jag menade med att nvidia har koncentrerat sig på DX11 och kommer med all säkerhet att vara lika bra(när det blir aktuellt) med DX12!!

Visa signatur

"En superdator är en maskin som kör en ändlös slinga på bara två sekunder" - Okänd

Permalänk
Medlem
Skrivet av Yoshman:

Tycker detta inlägg från AnandTech träffar så mitt i prick

"By the time DX12 becomes commonplace, I'm sure they will have cards that were built for DX12.
It makes a lot of sense to design your cards around what will be most useful today, not years in the future when people are replacing their cards anyways. Does it really matter if AMD's DX12 performance is better when it isn't relevant, when their DX11 performance is worse when it is relevant?"

Det är ett väldigt gnäll på Nvidia i SweC forum, men egentligen handlar det bara om att Nvidia vara långt mer framgångsrik att ge kunderna en lösning som fungerar bra idag medan de som gnäller pekar på att AMD har en lösning som hindras av DX11 men som kommer visa sin styrka när väl DX12/Vulkan spelen kommer. Det rationella valet för mig som kund är att välja lösning som är bäst just idag, inte välja något som kanske är bättre imorgon. Tyvärr för AMD är majoriteten av kunderna rationella i sina val för 80/20 fördelningen i marknadsandel skulle jag säga är fullt rimlig givet hur det sett ut de senaste 1,5-2 åren.

I DX11 krävs det långt fler transistorer och därmed en dyrare och törstigare krets för att matcha både Kepler men framförallt Maxwell. D.v.s. GCN må ha vara en bra design i grunden, men den lanserades vid fel tidpunkt. Det gör inte Maxwell "gimpad", utan det visar bara att Nvidia var långt bättre att göra något som passade den teknik som var aktuell under kretsens glansdagar. Även om AotS skulle vara fullt representativ för hur DX12 titlar presterar i genomsnitt så skulle jag ändå säga att Maxwell inte har varit ett dålig köp upp till nu + majoriteten av alla titlar som släpps under detta år kommer fortfarande vara DX11.

Att Nvidia medvetet skulle paja för sina äldre kort är total foliehattssvammel. Sanningen är att de tekniker som används i spel råkar passa Kepler illa, Maxwell är en bättre designad krets för dagens spel. I AotS är shader-kapacitet en enorm flaskhals något som inte varit fallet i något annat spel så här lång. 780Ti har något bättre shader-kapacitet än 970, 780Ti presterar också bättre än 970 i AotS, vilket knappast skulle vara fallet om drivers artificiellt handikappade Kepler. I majoriteten av dagens spel ligger flaskhalsen i andra delar än shaders, flaskhalsen verkar ha förskjutits allt mer mot saker där Maxwell är klart starkare än Kepler.

Men kom igen Yoshman, du kan ju inte komma här och vara rationell nu! Det handlar om hårdvara, då måste man låta känslorna svalla och förtrycka förnuftet och logikens röst.

Men för att vara allvarlig en stund, så tycker jag det är väldigt mycket känslor inblandade i diskussionerna nu för tiden. Fast jag kanske inte ska säga för mycket, kommer ihåg "bråken" mellan Sun och SGI, eller varför inte Amiga/Atari på tiden det begav sig. Iofs oftast med glimten i ögat, men det kanske bara är jag som har mina rosaskimrande retroglasögon på mig nu

Visa signatur

Ride more, Work less!

Permalänk
Medlem

Hur kan man förvänta sig att det blir framöver med det här att blanda grafikkort? Kommer ett äldre kort hjälpa eller stjälpa i kombination med ett av modernare slag?
Med andra ord; kan man tänkas ha viss nytta av att inte skrota sitt gamla kort i samband med köp av den kommande generationen?

Visa signatur

| I7 3770K | NH-D14 | Asus P8Z77 V | Corsair AX 760 | Gigabyte G1 Gaming GTX 1080 | Fractal Design R4 | Cruical BallistiX Tactical 16GB | Samsung 840 Pro 128GB | Samsung 850 EVO 500GB | 1TB WD | Windows 10 Pro |

Permalänk
Medlem

@Yoshman:

Fin analys. Du borde skriva för sweclockers då och då, inte bara i forumet