DirectX 12 med Ashes of the Singularity

Permalänk
Medlem
Skrivet av jesusbarnet:

"Diagrammet ovan presenterar riktigt intressanta resultat, och speciellt när de båda lägrens kort jämförs under DirectX 11. Som synes tappar AMD rejält med mark i det äldre grafikgränssnittet, vilket rör om rejält i tabellerna till Nvidias fördel. I kontrast presenterar Nvidia-korten närmast identiska resultat både i DX11 och DX12, vilket kan vara ett resultat av företagets flitiga drivrutinsingenjörer som lyckats pressa ur en hiskelig mängd prestanda ur DirectX 11."

Detta känns väldigt vinklat?
eller är det bara jag?

Vinklat? Jag håller inte med. Nvidias ingenjörer har suttit och hårdkodat optimeringar för spel (AMD också) och nu när väl Direct12/Vulkan kommer - som försöker nå maskineriet närmre istället för att låta drivrutiner vara någon slags mellanhand, så får de rå-pisk. AMD tänkte ett steg längre (som de alltid gör f.ö) i och med Mantle och ser att det inte är hållbart att ha drivrutinssläpp för varenda spel som släpps, och tycker istället att spelutvecklarna tillsammans med 3d-motorsskapare skall ta hand om detta själva.

Läs detta, personen berättar lite om hur drivrutinsutveckling fungerar https://www.gamedev.net/topic/666419-what-are-your-opinions-o...

Permalänk
Medlem

@Yoshman: Själv tycker jag om att vara framtidssäker och inte köpa nytt allt för ofta. Därför köpte jag just fury x och jag visste att dx 12 skulle komma.
Förhoppningsvis blir det ett nytt 290 med evigt liv. Hade jag lagt ut 6000 på ett 980 ti och varit tvungen att köpa nytt kort om 6 månader för att klara av dx12 spel så hade jag kastat mycket pengar på nvidea.

Permalänk
Medlem
Skrivet av Cocosoft:

Läs detta, personen berättar lite om hur drivrutinsutveckling fungerar https://www.gamedev.net/topic/666419-what-are-your-opinions-o...

Som utvecklare, så får jag lite hjärtklappning när jag läser det. Fy fan säger jag bara.

Visa signatur

Hur många datorer är för många?

Permalänk
Master of Overkill
Skrivet av HenrikM:

@Yoshman: Själv tycker jag om att vara framtidssäker och inte köpa nytt allt för ofta. Därför köpte jag just fury x och jag visste att dx 12 skulle komma.
Förhoppningsvis blir det ett nytt 290 med evigt liv. Hade jag lagt ut 6000 på ett 980 ti och varit tvungen att köpa nytt kort om 6 månader för att klara av dx12 spel så hade jag kastat mycket pengar på nvidea.

Framtidssäkra funkar typ aldrig

Skickades från m.sweclockers.com

Visa signatur

CASE CaseLabs SMA8-A + CaseLabs Nova X2M CPU 9900k @5.3GHz (No AVX) 7950X3D @5.7GHz GPUs RTX 3090 FE + RTX 3080 FE RAM 2x32GB Corsair Dominator Platinum 3533MHz CL13 + 2x32GB 6000MHz CL30 Dominator Titanium PSU EVGA T2 1600W + Corsair SFF 750W SSD Corsair Force MP700 Pro M.2 NVMe 2.0 Gen 5 2TB, 2x Samsung 990 Pro 2TB M.2 Headphones Audeze Maxwell + Audeze LCD-2 + Moon Cable DAC/AMP Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard ASUS ROG Crosshair X670E Hero + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av 2good4you:

Jag skulle snarare peka ut 7970 på detta område, ett kort som lanserades för över 3 år sen.

Ang testresultaten så är jag inte alls förvånad. Skrivit om detta en del innan sedan väldigt länge.

Ja, jag håller med. Också bra kort. Tänkte mest att de brukar kosta mer beg jämfört med 680. Kanske har fel

Hittade lite test där de jämför hur det ser ut med 680 vs 7970 idag.
http://www.babeltechreviews.com/hd-7970-vs-gtx-680-2013-revis...

Generellt har 7970 gått om framför allt i högre upplösningar pga. minnet inte räcker på 680. Men annars är de ganska likvärdiga. De duger till 1080p i dagens spel, men inte så mycket högre. Redan i 1440p blir det en rejäl smäll. Så generellt ganska likvärdiga skulle jag säga.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av hakd:

Då får du vänta, Det är ju försenat:
I början på nästa år är gissningen just nu.

Källa?
Det enda jag hittar om Pascal och 2017 är detta som länkar till SweClockers artikel om Pascal och Computex 2016.
https://www.reddit.com/r/nvidia/comments/47glxo/swedish_tech_...
Står ingenting om något halvår utan endast "flyttas till senare". Inte ens Googleöversättningen till engelska ändra på det.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Avstängd

DX12 på den skitgrafiken?
ni måste skämta

inget nytt där som inte har producerats dom senaste 10 åren.
det nya är att dom medvetet drar ner prestandan på korten så att man ska vara tvungen att uppgradera lol

med rätt optimering så skulle ett GTX 580 kort från 2010 fixa flyt på den grafiken utan problem.

Visa signatur

i7 2600K 4.8Ghz Vattenkyld (EK Supreme HF Nickel)| ASUS P8Z68-V PRO |Corsair 8GB CL9 2133MHz VENGEANCE PRO| Corsair RM850 850W |EVGA GTX 780 SC ACX SLI Vattenkylda (EK-FC Titan - Acetal)|Pump: Alphacool D5/EK-D5 X-RES 100 Topp|Radiatorer: BlackICE GT Stealth 360|EK-CoolStream XTC 140|Fläktar: 3X Akasa Apache 120mm|2x Akasa Apache 140mm|Skärm: Samsung S27A950D 120Hz|Systemdisk: OCZ Vertex3 MAX IOPS 120GB|Datorlåda: Corsair Obsidian 800D|

Permalänk
Medlem
Skrivet av pg_ice:

DX12 på den skitgrafiken?
ni måste skämta

inget nytt där som inte har producerats dom senaste 10 åren.
det nya är att dom medvetet drar ner prestandan på korten så att man ska vara tvungen att uppgradera lol

med rätt optimering så skulle ett GTX 580 kort från 2010 fixa flyt på den grafiken utan problem.

Dx12 är ingen grafik motor, det är en api som använder hårdvaran mer effektivt.

Skickades från m.sweclockers.com

Visa signatur

En dator

Permalänk
Medlem
Skrivet av pg_ice:

DX12 på den skitgrafiken?
ni måste skämta

inget nytt där som inte har producerats dom senaste 10 åren.
det nya är att dom medvetet drar ner prestandan på korten så att man ska vara tvungen att uppgradera lol

med rätt optimering så skulle ett GTX 580 kort från 2010 fixa flyt på den grafiken utan problem.

Tyvärr så det är i PCvärlden. Skulle alla datorer i hela världen fortfarande sitta på ett 580 så hade vi nog i princip fortfarande ha lika snygga spel, fast mer optimerade. Skulle bli lite som konsol. De är ju flera gånger klenare än PC. Men kan fortfarande producera väldigt snarlik upplevelse i många fall.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Master of Overkill
Skrivet av Ruzikx:

Detta har varit på agendan länge. Tyvärr så stämmer det.

Btw du har ingen jävla aning om va du snackar om....

Btw du har 970 = fanboy....

Seriöst lägg ner...

Visa signatur

CASE CaseLabs SMA8-A + CaseLabs Nova X2M CPU 9900k @5.3GHz (No AVX) 7950X3D @5.7GHz GPUs RTX 3090 FE + RTX 3080 FE RAM 2x32GB Corsair Dominator Platinum 3533MHz CL13 + 2x32GB 6000MHz CL30 Dominator Titanium PSU EVGA T2 1600W + Corsair SFF 750W SSD Corsair Force MP700 Pro M.2 NVMe 2.0 Gen 5 2TB, 2x Samsung 990 Pro 2TB M.2 Headphones Audeze Maxwell + Audeze LCD-2 + Moon Cable DAC/AMP Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard ASUS ROG Crosshair X670E Hero + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Master of Overkill
Skrivet av BrottOchStraff:

Tyvärr så det är i PCvärlden. Skulle alla datorer i hela världen fortfarande sitta på ett 580 så hade vi nog i princip fortfarande ha lika snygga spel, fast mer optimerade. Skulle bli lite som konsol. De är ju flera gånger klenare än PC. Men kan fortfarande producera väldigt snarlik upplevelse i många fall.

Då undrar jag va pengarna skulle komma....

Om ingen behövde mer än 580 kunde Nvidia lägga ner....

Visa signatur

CASE CaseLabs SMA8-A + CaseLabs Nova X2M CPU 9900k @5.3GHz (No AVX) 7950X3D @5.7GHz GPUs RTX 3090 FE + RTX 3080 FE RAM 2x32GB Corsair Dominator Platinum 3533MHz CL13 + 2x32GB 6000MHz CL30 Dominator Titanium PSU EVGA T2 1600W + Corsair SFF 750W SSD Corsair Force MP700 Pro M.2 NVMe 2.0 Gen 5 2TB, 2x Samsung 990 Pro 2TB M.2 Headphones Audeze Maxwell + Audeze LCD-2 + Moon Cable DAC/AMP Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard ASUS ROG Crosshair X670E Hero + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Hjälpsam
Skrivet av Cocosoft:

Vinklat? Jag håller inte med. Nvidias ingenjörer har suttit och hårdkodat optimeringar för spel (AMD också) och nu när väl Direct12/Vulkan kommer - som försöker nå maskineriet närmre istället för att låta drivrutiner vara någon slags mellanhand, så får de rå-pisk. AMD tänkte ett steg längre (som de alltid gör f.ö) i och med Mantle och ser att det inte är hållbart att ha drivrutinssläpp för varenda spel som släpps, och tycker istället att spelutvecklarna tillsammans med 3d-motorsskapare skall ta hand om detta själva.

Läs detta, personen berättar lite om hur drivrutinsutveckling fungerar https://www.gamedev.net/topic/666419-what-are-your-opinions-o...

Letat efter den länken, tack.

edit Rekomenderad läsning!

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av sgtprobe:

Men kom igen Yoshman, du kan ju inte komma här och vara rationell nu! Det handlar om hårdvara, då måste man låta känslorna svalla och förtrycka förnuftet och logikens röst.

Men för att vara allvarlig en stund, så tycker jag det är väldigt mycket känslor inblandade i diskussionerna nu för tiden. Fast jag kanske inte ska säga för mycket, kommer ihåg "bråken" mellan Sun och SGI, eller varför inte Amiga/Atari på tiden det begav sig. Iofs oftast med glimten i ögat, men det kanske bara är jag som har mina rosaskimrande retroglasögon på mig nu

Ahhh, Amiga & Atari ST

Köpte själv en Atari ST 520, de kom före Amiga 500 och var senare billigare. Det normala/förväntande var ju sedan att hålla fast vid sitt val oavsett, nog för att det var lite med glimten i ögat men blev högljutt kallad svikare ihop med en rad argument varför Amiga sög när det blev ett byte till en Amiga 500. För mig var det självklart, Amiga var på alla sätt en bättre design (hade ingen nytta av MIDI-portar och var man det kostade ett sådant kort inte speciellt mycket till Amigan).

Tyvärr gjorde jag samma misstag som många andra gamla Amiga 500 ägare, köpte en Amiga 1200... Den var inte bra, inte ens efter man lagt ut än mer pengar på mer RAM och ett 68030 kort (på hela 40 MHz!). Inte kul som fattig student att inse sitt misstag och skramla djupt i fickorna, jobbar hårt under sommaren för att skaffa en PC...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av tvelander:

Då undrar jag va pengarna skulle komma....

Om ingen behövde mer än 580 kunde Nvidia lägga ner....

Ja deras nuvarande affärsmodell skulle helt klart inte fungera Men det skulle säkert finnas andra grejer de kunde tjäna pengar på. Ändra om i affärsmodellen för att tjäna pengar på spel som släppt till deras "plattform" precis som konsolerna gör.

Tyvärr skulle nog utvecklingstakten på hårdvara stanna av rätt hårt. På gott och ont. Tycker väl det kanske är en orimligt snabb takt ibland. Framför allt när vissa nya titlar har hårdvarokrav som inte alls motsvarar hur snyggt spelet faktiskt är.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av Yoshman:

Ahhh, Amiga & Atari ST

Köpte själv en Atari ST 520, de kom före Amiga 500 och var senare billigare. Det normala/förväntande var ju sedan att hålla fast vid sitt val oavsett, nog för att det var lite med glimten i ögat men blev högljutt kallad svikare ihop med en rad argument varför Amiga sög när det blev ett byte till en Amiga 500. För mig var det självklart, Amiga var på alla sätt en bättre design (hade ingen nytta av MIDI-portar och var man det kostade ett sådant kort inte speciellt mycket till Amigan).

Tyvärr gjorde jag samma misstag som många andra gamla Amiga 500 ägare, köpte en Amiga 1200... Den var inte bra, inte ens efter man lagt ut än mer pengar på mer RAM och ett 68030 kort (på hela 40 MHz!). Inte kul som fattig student att inse sitt misstag och skramla djupt i fickorna, jobbar hårt under sommaren för att skaffa en PC...

Haha Köpte också en 1200 efter att ägt en 500+. 1.5 år senare insåg jag att jag endast spelade Dune 2 och moddade massvis med musikmoduler i Fasttracker tror jag det hette och sparade till en PC.

Permalänk
Medlem

Kul att se hur AMDs mer våghalsiga spelande ibland ger utdelning.

Sitter själv på ett 290X och det känns som jag kommer göra det länge till. Hoppas bara Arma 3 uppdateringen ger några % i fps nu när det blir Dx12.

Permalänk

Har ni settsan? R9 fury på prisjakt för under 4500 spänn

Permalänk
Datavetare

Exempel på varför enbart genomsnittlig FPS inte räcker för att ge hela bilden, Guru3D körde även FCAT på AotS betan

Ser inte så roligt ut för Fury X, något som AMD senare kommenterade så här

"Update: hours before the release of this article we got word back from AMD. They have confirmed our findings. Radeon Software 16.1 / 16.2 does not support a DX12 feature called DirectFlip, which is mandatory and the solve to this specific situation. AMD intends to resolve this issue in a future driver update."

Sedan har Nvidia sagt att man ännu inte färdigställt "async compute" för Maxwell gen 2. Från AnandTech

"Update 02/24: NVIDIA sent a note over this afternoon letting us know that asynchornous shading is not enabled in their current drivers, hence the performance we are seeing here. Unfortunately they are not providing an ETA for when this feature will be enabled."

Är dock fortfarande skeptisk till att "async compute" kommer göra speciellt mycket för Maxwell, man kanske kan komma till punkten att det inte blir negativt i alla fall Känns ju som det är något större hinder som Nvidia stött på med tanke på att man inte ens vill ge en vink om när detta stöd kan dyka upp.

Rent generellt verkar man kunna säga: DX12 är inte riktigt färdigt sett till drivarna...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Master of Overkill
Skrivet av Nästrimmarmannen:

Har ni settsan? R9 fury på prisjakt för under 4500 spänn

Såg men kortet har inga vattenblock

Skickades från m.sweclockers.com

Visa signatur

CASE CaseLabs SMA8-A + CaseLabs Nova X2M CPU 9900k @5.3GHz (No AVX) 7950X3D @5.7GHz GPUs RTX 3090 FE + RTX 3080 FE RAM 2x32GB Corsair Dominator Platinum 3533MHz CL13 + 2x32GB 6000MHz CL30 Dominator Titanium PSU EVGA T2 1600W + Corsair SFF 750W SSD Corsair Force MP700 Pro M.2 NVMe 2.0 Gen 5 2TB, 2x Samsung 990 Pro 2TB M.2 Headphones Audeze Maxwell + Audeze LCD-2 + Moon Cable DAC/AMP Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard ASUS ROG Crosshair X670E Hero + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Yoshman:

Är dock fortfarande skeptisk till att "async compute" kommer göra speciellt mycket för Maxwell, man kanske kan komma till punkten att det inte blir negativt i alla fall Känns ju som det är något större hinder som Nvidia stött på med tanke på att man inte ens vill ge en vink om när detta stöd kan dyka upp.

Rent generellt verkar man kunna säga: DX12 är inte riktigt färdigt sett till drivarna...

Async Compute är inte en tvingande del av DX12 så frågan är hur många spel kommer dra nytta av det. Fler spel med den featurn och Nvidia kanske snabbar på utveckling.
Lite tråkigt att se AMD missade en feature som man skall ha stöd för om det skall räknas som DX12

Visa signatur

..:[EVGA Z97 Classified][Intel Core i7 4790K @ 4.8][4x8GB Dominator @ 2133 XMP][2x EVGA GTX 980 Ti SC+ ACX 2+][Cooling EKWB custom loop]:..
..:[EVGA X99 FTW K][Build in progress]:..

Permalänk
Medlem
Skrivet av AMD-FX:

Oförstörbara enheter? såg inte en enda dö i spelet

Som FPS nerd fattar jag inte sådana här spel överhuvudtaget? Man sitter o stirrar på bottar som ändå aldrig gör som man vill, och dumma som spån är de alltid.

.....nu kanske jag fick lite ovänner här i tråden

Permalänk
Moderator
Testpilot
Skrivet av Yoshman:

Maxwell är klart snabbare på geometri. Det innefattar både tessellation och scener som innehåller väldigt komplicerade objekt, det senare är dock inte möjligt DX11 så tessellation är enda möjligheten att få geometri att bli en flaskhals p.g.a. av GPU.

CGN är klart snabbare på shader-effekter, vilket i praktiken betyder att den också är snabbare på post-processing då väldigt mycket sådant använder shaders (plus att post-processing nog passar "async-shaders" riktigt bra). I DX11 har man även här en flaskhals i att allt för många shader-steg kan generera allt för många "draw-calls" så flaskhalsen hamnar i APIet (CPUn) i stället för GPUn.

AotS är uppenbarligen extremt shader-tungt, när shader-kapacitet är flaskhals så är det förväntat ett 390X prestera ungefär som ett 980i, 380 ungefär som ett 970.

Om det kommer DX12 spel som i stället använder möjligheterna i detta API för att ha extremt komplex geometri så är den förväntade relativa prestanda dels att Fury X kommer prestera mer eller mindre identiskt med 390X, båda dessa kommer i det läget med största sannolikhet prestera sämre än 970.

Båda dessa fall kan illustreras rätt bra med syntetiska tester, om man låter shader-kapacitet vara flaskhals får man
http://techreport.com/r.x/radeon-r9-fury-x/b3d-alu-througput.gif
vilket är rätt nära vad man ser i AotS i "extreme" inställning. Lösning om man vill köra detta på Maxwell är enkel: dra ner shader-intensiva saker!

Det andra fallet där geometrikapacitet är flaskhals ser ut så här
http://techreport.com/r.x/radeon-r9-fury-x/b3d-poly-throughput.gif
Så länge detta händer p.g.a. tessellation är lösningen enkel för GCN-ägare, minska nivån eller slå av tessellation. Börjar spel i stället använda modeller med så många trianglar att detta blir en flaskhals har GCN-ägare eventuellt ett problem då detta sällan är något som går att justera med inställningar.

Ja precis det jag menade fast tvärtom och helt fel angående post-fx men annars så...

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Körde igenom testet igen med Beta 2.... och åter igen jag får sämre resultat i DX12 än 11 vet inte hur ni lyckas få bättre resultat med 970.

Spelet är fortfarande otroligt instabilt i DX12 med som bonus

DX 12
DX 11

Visa signatur

Speldator: Ryzen 7800X3D, 64GB DDR5, RTX 5090
Server: i7-8700k, 32GB DDR4, RTX2080
Steam deck, Rog Ally + de fiesta konsoler.

Permalänk
Hjälpsam
Skrivet av Yoshman:

Exempel på varför enbart genomsnittlig FPS inte räcker för att ge hela bilden, Guru3D körde även FCAT på AotS betan
http://www.guru3d.com/index.php?ct=articles&action=file&id=20775
http://www.guru3d.com/index.php?ct=articles&action=file&id=20776
Ser inte så roligt ut för Fury X, något som AMD senare kommenterade så här

"Update: hours before the release of this article we got word back from AMD. They have confirmed our findings. Radeon Software 16.1 / 16.2 does not support a DX12 feature called DirectFlip, which is mandatory and the solve to this specific situation. AMD intends to resolve this issue in a future driver update."

Sedan har Nvidia sagt att man ännu inte färdigställt "async compute" för Maxwell gen 2. Från AnandTech

"Update 02/24: NVIDIA sent a note over this afternoon letting us know that asynchornous shading is not enabled in their current drivers, hence the performance we are seeing here. Unfortunately they are not providing an ETA for when this feature will be enabled."

Är dock fortfarande skeptisk till att "async compute" kommer göra speciellt mycket för Maxwell, man kanske kan komma till punkten att det inte blir negativt i alla fall Känns ju som det är något större hinder som Nvidia stött på med tanke på att man inte ens vill ge en vink om när detta stöd kan dyka upp.

Rent generellt verkar man kunna säga: DX12 är inte riktigt färdigt sett till drivarna...

Om kortet skulle vara så ryckigt i verkligheten borde nämnts i någon av tidigare tester.
Jag tror helt enkelt att FCAT mäter fel och vad AMD syftar på är en Feature som ger korrektare mätvärden.
http://www.computerbase.de/2016-02/ashes-of-the-singularity-d...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av BrottOchStraff:

Ja, jag håller med. Också bra kort. Tänkte mest att de brukar kosta mer beg jämfört med 680. Kanske har fel

Hittade lite test där de jämför hur det ser ut med 680 vs 7970 idag.
http://www.babeltechreviews.com/hd-7970-vs-gtx-680-2013-revis...

Generellt har 7970 gått om framför allt i högre upplösningar pga. minnet inte räcker på 680. Men annars är de ganska likvärdiga. De duger till 1080p i dagens spel, men inte så mycket högre. Redan i 1440p blir det en rejäl smäll. Så generellt ganska likvärdiga skulle jag säga.

Du ska jämföra 7970 ghz och 680. Inte vanliga 7970.

Visa signatur

Ryzen 5 5600, Geforce 1080

Permalänk
Datavetare
Skrivet av Ratatosk:

Om kortet skulle vara så ryckigt i verkligheten borde nämnts i någon av tidigare tester.
Jag tror helt enkelt att FCAT mäter fel och vad AMD syftar på är en Feature som ger korrektare mätvärden.
http://www.computerbase.de/2016-02/ashes-of-the-singularity-d...

Well, du menar alltså att AMDs svar om att de missat att implementera DirectFlip() är ute och cyklar? Utan den funktion verkar ju det man såg med FCAT var förväntat resultat.

Att andra grafer är slätare förstod jag som att de mäter tidigare i processen medan FCAT mäter vad man faktiskt ser på skärmen.

Edit: Om jag förstår exakt vad FCAT mäter och vad det är så handlar det om man stoppar in en framegrabber och därmed mäter man vad som faktiskt skickas till skärmen.

Ser inte riktigt hur FCAT någonsin skulle kunna mäta "fel" om den fungerar på det sättet. Den mäter exakt vad man ser, d.v.s. vid "displayed".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ozzed:

Mha... När Nvidia tar segrar är det "kross" och "buller och brak", men när det är AMD så "ska man vara försiktig med att dra slutsatser". Jag tycker det är en lite skev bild av läget.

Jag tänkte liknande när jag läste.. SweC tonar ner det ganska rejält kan jag tycka. Det sitts väl på ett och annat Nvidia-kort på redaktionen..

Ok, jag tar av en bit av foliehatten iaf. Jag tyckte dock att det fjäskades lite. Jag har ägt flera Nvidia-kort, men jag gillar inte företaget för fem öre. AMD ska ha credd för att de "står ut" med Nvidia. Gameworks, ja herregud..

Bra test iaf! Och riktigt najs att det funkar så bra med blandade kort!

Skickades från m.sweclockers.com

Permalänk
Hjälpsam
Skrivet av Yoshman:

Well, du menar alltså att AMDs svar om att de missat att implementera DirectFlip() är ute och cyklar? Utan den funktion verkar ju det man såg med FCAT var förväntat resultat.

Att andra grafer är slätare förstod jag som att de mäter tidigare i processen medan FCAT mäter vad man faktiskt ser på skärmen.

Edit: Om jag förstår exakt vad FCAT mäter och vad det är så handlar det om man stoppar in en framegrabber och därmed mäter man vad som faktiskt skickas till skärmen.
http://www.guru3d.com/index.php?ct=articles&action=file&id=3064
Ser inte riktigt hur FCAT någonsin skulle kunna mäta "fel" om den fungerar på det sättet. Den mäter exakt vad man ser, d.v.s. vid "displayed".

Nej du har rätt, något är inte bra.
Men varför har vi inte fått höra något om att det skulle rycka så galet tidigare?
Lite om DirectFlip.
https://msdn.microsoft.com/en-us/library/windows/hardware/dn6...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

@tvelander:
Funkar skitbra. Kanske inte om man är som dig som köper ny hårdvara oftare än jag hinner säga krakelibrankelfnatt.
Min kuro 5090 sitter fortfarande bland de bättre tvapparaterna för film. Lite extra efterforskning före köp. Samma med hembioflrstärkaren med den (då) nya hdmi och ljudformat. Nu kom nya format så det är väll dags för uppgradering på båda fronterna med hdr och dolby vision.
Redan före sommaren så pratades det om att amds architektur skulle funka bättre med dx12. Så väldigt lätt att framtidssäkra där.

Permalänk
Datavetare

@Ratatosk: inte säkert att man ser jättemycket ryck då upplevd ryckighet främst beror på hur mycket och snabbt

T_display - T_game

varierar.

Är fullt möjligt att ha 144 FPS och ändå uppleva bilden som väldigt ryckig. Omvänt är det typiskt en mer behaglig upplevelse att köra 30 FPS på konsolerna då de har bättre kontroll av den senare delen av processen så de kan hålla variansen av

T_display - T_game

på lägre nivå än en typisk PC vid 30 FPS, en PC kan däremot "fixa" detta genom att ha betydligt högre FPS.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer