AMD släpper egna CPU-rekommendationer för Oculus Rift

Permalänk
Melding Plague

AMD släpper egna CPU-rekommendationer för Oculus Rift

Processormakaren AMD slår ett slag för det egna utbudet och gör gällande att en Intel-processor inte är ett krav för att driva runt spel med VR-headsetet Oculus Rift.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Som skrivits så lär ju processorn bli näst intill oviktig bara vi får DX12 på plats. Men det gäller ju såklart inte de som väljer att skippa Windows 10.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Intressant att det skiljer så mycket i prestanda mellan de processorer som rekommenderas. Är det så att AMD underdriver eller överdriver de som rekommenderar Intels starkare processorer. Dessa uppgifter kommer vad jag förstår från AMD så man får väl ta de med en nypa salt, samtidigt skulle jag inte bli förvånad om occulus har fått en slant av Intel för att hålla på dem....

Visa signatur

"Jag är så gammal att jag brukade styra med piltangenterna"
StoppaCopySwede
Fraktrfitt:Inet

Permalänk
Medlem

@Ozzed:
Nu ger inte DX12 automagiskt stöd för 124871902874 kärnor i 100%, snarare kan spelen använda kärnorna de redan använder på ett mycket bättre sätt, i andra ord så vinner CPU'er med hög singeltrådad prestanda mest på DX12.

Permalänk
Medlem
Skrivet av str8forthakill:

@Ozzed:
Nu ger inte DX12 automagiskt stöd för 124871902874 kärnor i 100%, snarare kan spelen använda kärnorna de redan använder på ett mycket bättre sätt, i andra ord så vinner CPU'er med hög singeltrådad prestanda mest på DX12.

Snarare så är det så att Processorer med kass IPC (Läs AMD) blir mindre flaskhals då processorn inte behöver jobba lika hårt, vilket innebär att det inte gör så mycket om man sitter på en lite sämre processor, bara man har ett OK grafikkort. Det är det som DX12 är bra för.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Någon mer än jag som vill se ett jämförande test mellan 880k och FX 4320?
Det hör inte riktigt till ämnet, men vore kul att veta.

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Medlem

Men varför inte X4 845 också då? Även med lägre frekvens bör väl ligga på 870k nivå, det är ju Excavator vs Steamroller.

Visa signatur

Ryzen 7 5800X3D | RX 7900 XT

Permalänk
Medlem
Skrivet av str8forthakill:

@Ozzed:
Nu ger inte DX12 automagiskt stöd för 124871902874 kärnor i 100%, snarare kan spelen använda kärnorna de redan använder på ett mycket bättre sätt, i andra ord så vinner CPU'er med hög singeltrådad prestanda mest på DX12.

Det vet jag inte om jag håller med.
Hög IPC vinner på DX11, men mest vinner helt klart svagare, fler kärnade CPUer på DX12/Vulkan, då de kan använda mer kraft effektivt. Sen vinner ju så klart alla CPUer på bättre multitråd (utom kanske single core, men de är rätt sällsynta idag).

Sen kan jag tillägga att Vulkan verkar ha visat bättre potential än DX12 på att multitråda, så vi får väl se vad som sker.

Intel har iaf gett upp IPC/Prestanda racet, vilket bara lämnar oss med en sabla massa energieffektiva 8+ trådiga CPUer, så oavsett så behöver vi börja optimera mjukvaran bättre.

Sen dock fungerar så klart inte DX12 "portade" DX11 spel magiskt så mycket bättre... men äkta DX12 titlar lär verkligen flyga på en 8350 vs tex en i3a eller långsam i5a.

Permalänk
Medlem
Skrivet av LPG:

Men varför inte X4 845 också då? Även med lägre frekvens bör väl ligga på 870k nivå, det är ju Excavator vs Steamroller.

870k har basfrekvens på 3,9 med turbo upp till 4,1 och 845 har sin maximala turbo på 3,8 och börjar på endast 3,5 så jag är tveksam till att den ligger jämnt med 870k faktiskt.
Hade dock varit trevligt om de kunde släppa 8 kärniga sådana processorer till AM3+.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem

Finns det folk som köper AMD längre! Vet ingen som köpt deras cpuer sen 939 socketen.
Jag skulle inte rek AMD till någon just nu.

Visa signatur

r_wateralpha 0.3

Permalänk
Medlem
Skrivet av Datanisse:

Finns det folk som köper AMD längre! Vet ingen som köpt deras cpuer sen 939 socketen.
Jag skulle inte rek AMD till någon just nu.

Finns ju drösavis med AM3+ system därute. Är själv nöjd ägare till ett bygge med en FX-8350 i. Men det blir att byta upp sig ZENare under året

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Datanisse:

Finns det folk som köper AMD längre! Vet ingen som köpt deras cpuer sen 939 socketen.
Jag skulle inte rek AMD till någon just nu.

Jodå, det finns folk som köper AMD fortfarande.
Men jag håller med dig om att det i dagsläget är svårt att rekommendera AMDs CPUer.

Visa signatur

Akashiro 0.9: Ryzen 5 7600, Radeon RX 7800XT Pure: 64/2000
https://podcasters.spotify.com/pod/show/thomaseron

Permalänk
Datavetare
Skrivet av Paddanx:

Det vet jag inte om jag håller med.
Hög IPC vinner på DX11, men mest vinner helt klart svagare, fler kärnade CPUer på DX12/Vulkan, då de kan använda mer kraft effektivt. Sen vinner ju så klart alla CPUer på bättre multitråd (utom kanske single core, men de är rätt sällsynta idag).

Sen kan jag tillägga att Vulkan verkar ha visat bättre potential än DX12 på att multitråda, så vi får väl se vad som sker.

Intel har iag gett upp IPC/Prestanda racet, vilket bara lämnar oss med en sabla massa energieffektiva 8+ trådiga CPUer, så oavsett så behöver vi börja optimera mjukvaran bättre.

Sen dock fungerar så klart inte DX12 "portade" DX11 spel magiskt så mycket bättre... men äkta DX12 titlar lär verkligen flyga på en 8350 vs tex en i3a eller långsam i5a.

Skulle inte säga att Intel gett upp IPC-racet, de har bara nått väldigt nära teoretisk max. Är knappast slumpen att Apples Twister, IBMs POWER8 och Intels Skylake har väldigt snarlik IPC i lägen där all data ligger i cache så flaskhalsen i princip bara är hur många instruktioner som kan hanteras per klockcykel. Sett till "bredd" i back-end är faktiskt Skylake "smalast" i detta gäng. Väldigt överförenklat kan man säga att Twister har 8 ALU pipelines och 2 load/store enheter, POWER8 har 10 ALU och 6 load/store medan Skylake har 4 ALU och 4 load/store. Ändå har Skylake i praktiken bäst genomsnittlig enkeltrådprestanda.

Angående hur DX12 kommer påverka kraven på CPU-delen så är det nog omöjligt att säga något idag. Men de mätningar som gjorts på Ashes of the Singularity visar ändå att FX-8370 vinner ungefär lika mycket som i3 medan Intels 4- och 6-kärniga modeller vinner mest när de paras med 390X. I absoluta tal är ju i3 4330 snabbare än 8370.

Dold text

Nu är dessa mätningar ett par månader gamla. Det intressanta är att AotS numera visar på bättre prestanda med DX11 än DX12 med alla Nvidia kort. Mer förvånande är att även AMD 380 numera presterar bättre med DX11 än DX12 i detta spel!

DX12 är definitivt framtiden, men på kort sikt undrar jag om vinsten kommer bli speciellt stor och om det ens blir en vinst i alla lägen. Anledningen är att många av de optimeringar som i DX11 kan göras i drivarna av folk som har väldigt bra kännedom om underliggande GPU design samt egenintresse i att maximera prestanda på just sin krets måste göras av speltillverkarna i DX12 där prioriteten kanske mer ligger på att minimera kostnad och hålla deadlines.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Det jag tror att alla glömmer I diskussionen om processor är hur frågan om hur tungrott själva apit för att avkoda rörelserna på själva headsetet/ och handkontrollerna är. Krävs det en stor del av enkeltråds prestandan bara för att ha koll på huvudrörelserna så krävs det nog en kraftig prolle...

Permalänk
Avstängd
Skrivet av Fluff3:

Det jag tror att alla glömmer I diskussionen om processor är hur frågan om hur tungrott själva apit för att avkoda rörelserna på själva headsetet/ och handkontrollerna är. Krävs det en stor del av enkeltråds prestandan bara för att ha koll på huvudrörelserna så krävs det nog en kraftig prolle...

Det krävs inte mycket kraft för att läsa av signaler från en input device som en mus, joystick, gamepad eller huvud-tracker.

Visa signatur

///M4

Permalänk
Medlem
Skrivet av Fluff3:

Det jag tror att alla glömmer I diskussionen om processor är hur frågan om hur tungrott själva apit för att avkoda rörelserna på själva headsetet/ och handkontrollerna är. Krävs det en stor del av enkeltråds prestandan bara för att ha koll på huvudrörelserna så krävs det nog en kraftig prolle...

Borde inte krävas mer än vad en muspekare tar.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av hoski:

Det krävs inte mycket kraft för att läsa av signaler från en input device som en mus, joystick, gamepad eller huvud-tracker.

Skrivet av Ozzed:

Borde inte krävas mer än vad en muspekare tar.

Nej nu har ni helt fel. Med sådana här sensorer får man väldigt brusig och skräpig data och den måste filtreras och processeras med algoritmer för att få ut ett bra resultat. Tänk t.ex. på ett trivialt exempel med en inspelning av ljud för någon som streamar någorlunda proffsigt: har man inte studio och utrustning för flera tiotusentals kronor så brukar man alltid behöva filtrera ljudet. Lite förenklat för att "sensorn", i det fallet mikrofonen, inte ger tillräckligt bra rå output, så signalbehandling behövs. Det är samma sak här.

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Medlem

@Yoshman:
"Nu är dessa mätningar ett par månader gamla. Det intressanta är att AotS numera visar på bättre prestanda med DX11 än DX12 med alla Nvidia kort. Mer förvånande är att även AMD 380 numera presterar bättre med DX11 än DX12 i detta spel!"

Sanning med viss modifikation. Det handlar om mängden information eller drawcalls du kan lägga i bilden inte max fps. Se denna video så ser du hur mycket mer data AMD lägger i bilden https://youtu.be/o2b6Nncu6zY

Permalänk
Medlem
Skrivet av dpom86:

Nej nu har ni helt fel. Med sådana här sensorer får man väldigt brusig och skräpig data och den måste filtreras och processeras med algoritmer för att få ut ett bra resultat. Tänk t.ex. på ett trivialt exempel med en inspelning av ljud för någon som streamar någorlunda proffsigt: har man inte studio och utrustning för flera tiotusentals kronor så brukar man alltid behöva filtrera ljudet. Lite förenklat för att "sensorn", i det fallet mikrofonen, inte ger tillräckligt bra rå output, så signalbehandling behövs. Det är samma sak här.

Någonting som mest troligt kommer göras innan signalerna når datorn tror jag...

Permalänk
Medlem
Skrivet av dpom86:

Nej nu har ni helt fel. Med sådana här sensorer får man väldigt brusig och skräpig data och den måste filtreras och processeras med algoritmer för att få ut ett bra resultat. Tänk t.ex. på ett trivialt exempel med en inspelning av ljud för någon som streamar någorlunda proffsigt: har man inte studio och utrustning för flera tiotusentals kronor så brukar man alltid behöva filtrera ljudet. Lite förenklat för att "sensorn", i det fallet mikrofonen, inte ger tillräckligt bra rå output, så signalbehandling behövs. Det är samma sak här.

Men själva resultatet av det borde kunna hanteras av hjälmen. Det är ju samma sak med ett pekdon. Du har en analog "insignal" som sedan behandlas av pekdonet och blir till en digital utsignal som datorn sedan begriper. Varför skulle det vara tugnt att beräkna och varför skulle man lämna över det arbetet till CPU som inte alls är lämpad för den typen av beräkningar? Har du källor på att man skulle valt den här typen av i så fall extremt ovanlig lösning eller gissar du bara?

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av dpom86:

Nej nu har ni helt fel. Med sådana här sensorer får man väldigt brusig och skräpig data och den måste filtreras och processeras med algoritmer för att få ut ett bra resultat. Tänk t.ex. på ett trivialt exempel med en inspelning av ljud för någon som streamar någorlunda proffsigt: har man inte studio och utrustning för flera tiotusentals kronor så brukar man alltid behöva filtrera ljudet. Lite förenklat för att "sensorn", i det fallet mikrofonen, inte ger tillräckligt bra rå output, så signalbehandling behövs. Det är samma sak här.

Tror du att den optiska sensorn på en mus inte har förbehandling av sensordata innan det når datorn? Det är samma med VR-headseten: att göra detta är något de kommer sköta med sin hårdvara. En del av affärsvärdet ju.

Permalänk
Medlem
Skrivet av Yoshman:

Skulle inte säga att Intel gett upp IPC-racet, de har bara nått väldigt nära teoretisk max. ... "följt av en jädra massa babbel"

... http://www.sweclockers.com/nyhet/21720-intel-processorer-kan-...
När de själva säger att de nått gränsen, då säger jag "gett upp", tills motsatsen är bevisad.

Jag vet att de inte kan göra det bättre, men alla fakta i världen föräldrar inte det

Skrivet av Yoshman:

Angående hur DX12 kommer påverka kraven på CPU-delen så är det nog omöjligt att säga något idag. Men de mätningar som gjorts på Ashes of the Singularity visar ändå att FX-8370 vinner ungefär lika mycket som i3 medan Intels 4- och 6-kärniga modeller vinner mest när de paras med 390X. I absoluta tal är ju i3 4330 snabbare än 8370.

Nu är dessa mätningar ett par månader gamla. Det intressanta är att AotS numera visar på bättre prestanda med DX11 än DX12 med alla Nvidia kort. Mer förvånande är att även AMD 380 numera presterar bättre med DX11 än DX12 i detta spel!

Nu är det ett spel, så ja.. vi vet inte hur det kommer påverka i generella drag. Men om du kollar på mer fakta bakom vad utvecklarna kunnat göra med just det spelet så ser du också att de kan göra mer finesser med mindre beräkningsförlust. Detta är något som flera utvecklare också bekräftar i andra studior som utvecklar DX12 spel.

Det sagt gör ju självklart att de kommer använda samma "bakomliggande" prestanda, men de får mer effektiv prestandan ur resultatet, så CPU kraven kan komma att bli exakt samma, men du får mer för det, alt så får man sänka kvalitén och få samma effekter för längre krav. (Uvecklare vill hellre sälja mer effekter dock )

DX11 är usel på multitrådat, och har i grunden en huvudtråd, vilket kraftigt påverkas av IPC på en CPU. Ja du kan gå runt detta, både genom bra skrivning och programmering, samt med drivrutiner som Nvidia gjort med tex Maxwell. Något både du och andra klart påpekat flertalet gånger. Så hur du får DX12 till att bli "sämre" än DX11 är ju löjligt. Du jämför åter icke optimerad, tidig version av DX12 mot "bästa fall" av DX11, och inte hur DX11 varit sedan det släpptes.

När DX12 fått lite tid på sig, utvecklarna lärt sig använda kärnorna både i GPU och i CPU effektivt så kan du börjar jämföra Nvidias Maxwell DX11, för det är den nivån det är på idag.

Skrivet av Yoshman:

DX12 är definitivt framtiden, men på kort sikt undrar jag om vinsten kommer bli speciellt stor och om det ens blir en vinst i alla lägen. Anledningen är att många av de optimeringar som i DX11 kan göras i drivarna av folk som har väldigt bra kännedom om underliggande GPU design samt egenintresse i att maximera prestanda på just sin krets måste göras av speltillverkarna i DX12 där prioriteten kanske mer ligger på att minimera kostnad och hålla deadlines.

Tror att i båda fallen ligger allt på att optimera kostnaden. Och om du tittar på att i båda fallen så måste spelutvecklarna optimera sina spel, oavsett DX11, DX12, bra drivare eller inte så är ditt försvar här löjligt, minst sagt. De som gynnar mest på att optimera sitt spel är just speltillverkaren.

Och får de friare händer, mer generell prestanda och inte blockeras till "vissa funktioner" som händer med en del ful-optimeringar som grafikkorttillverkare gör idag.
Det jag tydligt ser i dessa tester är just att Maxwell, när den körs utanför sin superoptimerade DX11 värld, suger. Den är så hårt otimerad för det att den tappar rätt bra utanför det. Samtidigt så tar AMDs kort en bra kliv framåt, trots att inget annat sker där.

Jag tycker inte grafikkortstillverkaren ska göra en satans massa extra jobb för varje spel jag inte spelar, varför ska min hårdvara bli dyrare för det? Däremot ett spel som är bra optimerat och jag vill ha spelet, så kan jag gärna betala för det, och mycket av detta behöver endast optimeras i motorerna. Allt efter det är inte mer jobb än de gör inför varje spel idag ändå. Så om tillverkarna gör en generell optimering, och sen låter spelutvecklarna tweka det sista ut korten ser jag bara som OCare som köper en Intel/AMD CPU och sen trimmar den.

Alt du föreslår är att vi ska behöva nya drivare och ny optimering via 12 nya drivare varje år för att det ska fungera... Det är så Nvidia gör idag. Du typ måste ha nyaste drivaren för att nyare spel ska fungera bra på Maxwell.

Alt jag föreslår är att de släpper mer generella drivare, och att speltillverkarna själva släpper dessa optimeringar, tillsammans med spelet i sig, till hårdvaran.

Hur gör man bra kod? Man skriver den bra från början. Om man försöker lappa och laga dåligt optimerad programkod så är det som att försöka plugga igen en sil. DX12 ger dem möjligheten att göra detta rätt från början, och genom det få bättre kontroll över både hårdvaran, spelet och prestandan.

Permalänk
Medlem
Skrivet av Ozzed:

Men själva resultatet av det borde kunna hanteras av hjälmen. Det är ju samma sak med ett pekdon. Du har en analog "insignal" som sedan behandlas av pekdonet och blir till en digital utsignal som datorn sedan begriper. Varför skulle det vara tugnt att beräkna och varför skulle man lämna över det arbetet till CPU som inte alls är lämpad för den typen av beräkningar? Har du källor på att man skulle valt den här typen av i så fall extremt ovanlig lösning eller gissar du bara?

Men hos på riften så blinkar ju headsetet "bara" som sedan läses av IR-kameran (som förövrigt kräver usb3 anslutning) som sedan skickar signalen till datorn för tolkning. Passar tillbaka pucken vet du vad du pratar om eller gissar du bara??

Permalänk
Medlem
Skrivet av Fluff3:

Men hos på riften så blinkar ju headsetet "bara" som sedan läses av IR-kameran (som förövrigt kräver usb3 anslutning) som sedan skickar signalen till datorn för tolkning. Passar tillbaka pucken vet du vad du pratar om eller gissar du bara??

Nu får du ursäkta men jag tycker inte ditt inlägg "maker sense" som småknattarna säger idag.. Vad då blinkar? Felskrivning eller vad? Och vad skulle vilken typ av USB-anslutning som krävs ha med saken att göra? Jag vet vad jag pratar om, men du verkar inte veta vad du frågar efter, eller så har du skrivit fel.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Datavetare

@Paddanx: du är medveten om att en av bieffekterna med DX12 är att AMD/Nvidia inte kan göra speciellt mycket via drivers? Att jämföra dagens DX12 drivare med DX11 drivare efter ca ett halvår på marknaden blir inte det minsta rätt då det finns helt andra möjligheter att optimera via drivers i DX11.

I alla fall Nvidias DX11 drivare sprider internt ut arbete över fler CPU-trådar (gissar att även AMD gör detta men har inte sett något sådant officiellt uttalande från dem), så där får man en viss hjälp av fler CPU-kärnor även i spel som själva inte gör något vettigt för multitrådning. I DX12 är potentialen att utnyttja flera CPU-trådar långt högre än DX11, men allt sådant måste göras explicit av spelutvecklarna då drivers i stort sett är passiva i DX12.

I det långa loppet kommer AMD/Nvidia få jobba med spelmotorer och spelutvecklare för att få in de optimeringar man nu har i DX11 drivare direkt i spelmotorn, när det händer kommer DX12 definitivt vara bättre än DX11. Initialt kommer det däremot inte alls vara säkert att DX12 kan klå DX11 i spel som stödjer båda.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ozzed:

Nu får du ursäkta men jag tycker inte ditt inlägg "maker sense" som småknattarna säger idag.. Vad då blinkar? Felskrivning eller vad? Och vad skulle vilken typ av USB-anslutning som krävs ha med saken att göra? Jag vet vad jag pratar om, men du verkar inte veta vad du frågar efter, eller så har du skrivit fel.

Svaret på frågan är alltså nej du vet inte hur oculus lösning för att spåra headsetet funkar. Om annars hade du förmodligen förstått vad jag menar.

edit* är snäll å hänvisar till wikipedia https://en.wikipedia.org/wiki/Oculus_Rift#Constellation

Permalänk
Avstängd

Varför har Swec inga tester på följande 3 toppmodeller fårn AMD?

AMD FX-9590
AMD FX-9370
AMD FX-8370

Jag hittar max FX-8350

Visa signatur

https://mega.nz/#!xNBjAJKA!OQctTR0tY5EK1Dk68MV0loIyCD3ftwL_KI...
(DX-11 DLL-fil till SweetFX/Reshade som är kompatibel med GTA 5)

Permalänk
Medlem
Skrivet av Yoshman:

@Paddanx: du är medveten om att en av bieffekterna med DX12 är att AMD/Nvidia inte kan göra speciellt mycket via drivers? Att jämföra dagens DX12 drivare med DX11 drivare efter ca ett halvår på marknaden blir inte det minsta rätt då det finns helt andra möjligheter att optimera via drivers i DX11.

Yes. Något jag ser fram emot. Inga mer twekande och fullösningar, utan om ett spel suger är det speluvecklarna som får ta ansvaret för sitt spel, något som ligger i deras eget intresse.

Skrivet av Yoshman:

I alla fall Nvidias DX11 drivare sprider internt ut arbete över fler CPU-trådar (gissar att även AMD gör detta men har inte sett något sådant officiellt uttalande från dem), så där får man en viss hjälp av fler CPU-kärnor även i spel som själva inte gör något vettigt för multitrådning.

Detta är också beviset för att DX11 suger.... Det är precis som jag sa, uselt på allt annat än 1-2 kärnor.

Så vad Nvidia har gjort, för att ens kunna få vettig prestanda ur det, är att försöka laga DX11. Tycker du verkligen att det är rätt sätt att gå? Att en grafikkortstillverkare ska behöva laga ett API som är trasigt, för att MS inte kunde få tummen ur röva och göra det bättre från början???

Testa ett modernt AAA spel med en gammal Nvidia drivare från 6+ mån innan spelet släpptes och en AMD drivare på motsvarande. Du får rätt intressant resultat, där AMD kortet mer eller mindre kommer prestera lika bra. Nvidia dock måste konstant tweka denna "optimering", varje jädra patch och drivare, för att det ska fungera bra.
Så du är beroende av en tillverkare ska optimera en optimering för att du ens ska få nån vettig prestanda i framtiden. Tror du Nvidia kommer fortsätta göra detta i 5 år, för alla spel, för alla kort? Nee. Därför blir också prestandan skit på äldre kort

Skrivet av Yoshman:

I DX12 är potentialen att utnyttja flera CPU-trådar långt högre än DX11, men allt sådant måste göras explicit av spelutvecklarna då drivers i stort sett är passiva i DX12.

Så ett spel som fortsätter utvecklas, fortsätter sälja kommer lätt att gynnas här. Istället för att optimera för de spel som tillverkarna gillar så spelet själv optimera för modern hårdvara.

Problemet kommer i nyare hårdvara med äldre spel som lagts ner. Men å andra sidan så kommer korten i framtiden bli mer kraftfulla, så det värsta som sker är att nyare kort inte är lika effektiva i äldre spel. (i teorin då).

Skrivet av Yoshman:

I det långa loppet kommer AMD/Nvidia få jobba med spelmotorer och spelutvecklare för att få in de optimeringar man nu har i DX11 drivare direkt i spelmotorn, när det händer kommer DX12 definitivt vara bättre än DX11. Initialt kommer det däremot inte alls vara säkert att DX12 kan klå DX11 i spel som stödjer båda.

Jo, detta är en bra sak när det sker, så jag håller med dig. Dock då blir ju fördelen att man istället för 12 nya drivare även för Nvidia kort, kan klara sig med en ny drivare för varje ny spelmotor som släpps. Vi pratade om ekonomiska fördelar ovan?

Med tanke på att en hel del motorer håller på att byggas om och optimeras för DX12, samt vulkan så kommer en fördel till. Du kommer kunna skippa DX12 och köra vulkan utan nackdelar, om spelutvecklaren vill det, då det är där de optimeringen sker nu, så länge motorn stöder det. Så plötsligt har man en potentiell väg bort från Windows, med samma optimering, eftersom det görs mot generell drivare och i spelet

Permalänk
Medlem
Skrivet av Xaves:

Varför har Swec inga tester på följande 3 toppmodeller fårn AMD?

AMD FX-9590
AMD FX-9370
AMD FX-8370

Jag hittar max FX-8350

http://www.sweclockers.com/test/15973-amd-fx-8350-vishera/17#...

Visa signatur

Ryzen 7 5800X3D | RX 7900 XT

Permalänk
Medlem
Skrivet av Yoshman:

Angående hur DX12 kommer påverka kraven på CPU-delen så är det nog omöjligt att säga något idag. Men de mätningar som gjorts på Ashes of the Singularity visar ändå att FX-8370 vinner ungefär lika mycket som i3 medan Intels 4- och 6-kärniga modeller vinner mest när de paras med 390X. I absoluta tal är ju i3 4330 snabbare än 8370.

Tror du missa en intressant sak i din länk:
http://www.techspot.com/review/1081-dx11-vs-dx12-ashes/page5....

Här ser man rätt tydligt att 8350 verkligen vinner på detta.
Ja, den har inte "mer prestanda" och en bättre CPU kan göra mer fps, om du sänker till skräp kvalitet.

Men titta på 1080p, både med 980ti och med FuryX, där i båda fallen så kan du plötsligt köra nästan samma prestanda som din fina superkraftiga Skylake 6700k
Så att man kan använda klenare CPUer med DX12 är definitivt något att ta med i beräkningarna. Om tom en 8350 stock, räcker... om en i3a räcker. Vad ska vi då med mer CPU kraft än våra kära Sandy Bridge? Vi behöver inte ny CPU, vi behöver nytt API

Undantaget är 1440p med 980Ti där den inte direkt hjälps vidare mycket, vilket i sig är underligt. Måste vara någon annan flaskhals med i problemet, typ minne, bussar eller så räcker helt enkelt inte dens prestanda i "stock". Men om det nu är så, varför är det då så bra DX11 värde?

Så jag står vid vad jag sa tidigare.... de som gynnar mest på DX12 är klenare CPU, även klena flertrådare CPUer. Dock är jag lite förvånad över att det inte hjälper 8350 mer än den gör, men hjälper gör det. Tror svaret på det finns om du jämför FuryX vs 980Ti.
För med AMD GPUn så släpps den lös. Så antingen är det något med hur Nvidia har sin drivrutin, optimering eller annat, eller i hårdvaran mellan dem.

PS. Jag vet att artikeln är nedlåtande mot AMD CPUn. Men jag håller inte med sättet han jämför heller. Att jag förväntat mig mer håller jag med, men det är lite beroende på spelet också, och om ett spel kan spela lika bra på en 2 kärnig skylake med 4 trådar i ultra som en 4 kärnig, 8 trådig skylake, så är den inte direkt CPU krävande heller