Nvidia Maxwell saknar viktig finess i DirectX 12 uppger Oxide Games

Permalänk
Medlem
Skrivet av Ozzed:

Ja Nvidia har inte klarat Windows 10 bra alls. Jag får "Display driver stopped responding and has recovered" minst 2 gånger om dagen sedan jag uppgraderade.

Och mina 3 datorer med Windows 10 har inte fått ett enda problem, samt att den första i sign har kört W10 Preview sedan den byggdes i Januari. Har jag världens tur eller är det bara så att du och några få andra har haft en riktig otur?

OnT: Dåligt att dom påstår att funktionen stöds när det inte gör det/presterar förfärligt. Men eftersom det är egenoptimerat från Oxide Games så ska det bli intressant att se hur det blir i andra DX12 spel framöver och vad skillnaderna blir.

Permalänk
Medlem
Skrivet av stimpen:

Va? Reklamerade du inte vid första rundan? Lr du hade otur och inte satt på ett 970 som man hade möjlighet att returnera den gången?

De tidigare 970 ägarna kan ju iaf skratta sig lyckliga, för ni bytade väl ut korten när ni hade chansen i 3.5gb vevan? Lr?

Du kan va säker! ;D

970 sli åkte ut fortare än kvikt, väntar dock ännu på att uppdatera till nått vettigt :(. Alla tredjeparts fury kort är ju mer än 2 slots höga..

Permalänk
Medlem

Ingen högoddsare att första "dx12 gpu:erna" kan ha problem/är ett dåligt köp... alls. 12-spel är minst 1 gen bort hursom.

Permalänk
Skrivet av Ratatosk:

Inte för att jag vill skryta (jo det vill jag visst).
#15637440
Blir kanske lite olika banor för koden men det funkade ju Ashes.

Jo sett ditt inlägg om jag inte har fel Men som sagt man får se hur detta kommer sluta

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Datavetare
Skrivet av rullekorn82:

Async compute functionality would result in NO difference in time taken to complete the combined tasks of graphics + compute, because its running in parallel.

Detta uttalande är ungefär lika korrekt som att säga att det inte är "äkta" SMT om två saker som kör på olika CPU-trådar tar längre tid än att köra båda sakerna på två olika CPU-kärnor. Vinsten med SMT är att en fysisk kärna oftare kan utnyttjas närmare 100% av sin teoretiska kapacitet, maximal teoretisk kapacitet är dock den samma. En extra fysisk kärna ökar teoretisk prestanda, dock stannar prestanda per kärna vid samma nivå eller ofta så sjunker den något om man inte har i det närmaste obegränsat med oberoende saker att köra.

En stor fördel med något som ACE är att det ger GPU-delen en större möjlighet att använda tillgängliga resurser så nära 100% som möjligt, men precis som med SMT så ökar inte teoretisk kapacitet på något sätt. På pappret är AMDs GPUer definitivt starkare än Nvidias motsvarande modeller. En stor skillnad i mikroarkitektur mellan GCN och Maxwell är att den förra har en "bredare" design (kan köra fler saker parallellt) medan Maxwell är "smalare" men har mer resurser (och högre "IPC") per stream CPU.

Ta hur program schemaläggs. I GCN schemaläggs saker i form av en "wavefront" som är 64st strömmar som kör samma program men jobbar på olika delar av data (t.ex. ett pixel var). Motsvarande i Maxwell (och Fermi/Kepler) kallas "warp" och består av 32st strömmar. Har man data som inte går jämt upp med denna storlek som används inte GPU-resurserna optimalt, 64 ger mer "spill" än 32.

Ovanpå detta så kan Maxwell ha upp till 64 warps per associerade med en SMM, varav 4 av dessa är "aktiva" och någon av dessa 4 är den som körs varje cykel. Detta är nog det närmaste man kommer ACE i SMM/SMX: det är upp till 64 warps i "kön" varav 4st kan vara aktiva (2st i Fermi).

Motsvarande i GCN är att varje CU (compute-unit) kan ha upp till 40st wavefronts "aktiva" (är en CU per 64 streamprocessorer), dessa wavefronts plockas från olika jobbköer, bl.a. ACE. Notera att det är väldigt mycket fler "aktiva" minsta schemaläggningsmässigt minsta enheter i CGN (40 mot 4). Nu är denna jämförelse fortfarande ganska sned då en CU inte är direkt jämförbar med en SMX/SMM i hur den mappar till resurser och trådar, på det stora hela kan man ändå visualisera det som att GCN har fler "hypertrådar" per fysisk kärna än Maxwell/Kepler. Maxwell/Kepler har i stället mer resurser per tråd för att på så sätt undvika "stalls".

Vinsten med GCN-designen är att man normalt sett får ut högre teoretisk kapacitet med en viss transistorbudget. Vinsten med Maxwell-designen är att det är lättare att nå en viss nivå av teoretisk kapacitet, framförallt om det finns begränsad mängd jobb som kan köras oberoende av varandra.

Summa summarum av detta är att GCN är i grunden en enklare design sett per "streamprocessor", den behöver fler "hypertrådar" per fysisk kärna för att nå upp till sin teoretiska kapacitet jämfört med Maxwell. Se det lite som FX-8350 vs i5-2500, stora skillnaden här är att grafik är ett problem som har massor med potentiell parallellism så antal fall när man har nytta av många men svaga trådar är långt fler än i en CPU (som mer behöver låg latens -> hög enkeltrådprestanda).

För DX11, som för att vara ett modernt grafik API är relativ seriellt i sin design, så är Kepler/Maxwell en bättre design då dessa GPUer kommer i långt fler fall nå mycket närmare sin teoretiska kapacitet än vad GCN GPUerna kan. I DX12 kan GCN dra nytta av att ha fler "hypertrådar" (för att använda en term många har en känsla för vad den betyder, är tekniskt sett fel term), i detta fall i form av att kunna lägga ut massor med arbete som kan utföras oberoende av varandra via ACE och GPUn har nu mycket mer program att lägga ut på de resurser som av olika anledningar inte används fullt ut. Nvidia kommer se en mindre effekt av DX12 då de redan har en högre utnyttjandegrad i DX11.

Är designen av GCN och dess ACE som får mig tro att något väldigt likt DX12 var redan planerat för Win8. Varför designade annars AMD en GPU som lanserades år 2012 som de måste ha vetat aldrig skulle kunna presterar optimalt med ett API som DX11? Även Fermi innehåller saker som först i DX12 är användbart, Nvidia tog bort dessa i Kepler då de var meningslösa i DX11 och bidrog till högre strömförbrukning.

Edit: råkade ut för ett "interrupt" när jag skrev detta lilla inlägg, så lyckas glömma halva förklaringen om mikroarkitektur. Och sorry för wall-of-text, det är i alla fall kortare än att plöja alla whitepaper om GPU-arkitekturer

Edit2: försökte förenkla lite mer

Skrivet av Ozzed:

Dessutom står det ju i klartext att Nvidias kort bara klarar 31 köer medans AMD klarar alla 128 galant, så hur skulle det vara till Nvidias fördel i så fall?

Nvidia har inte 31 köer, man kan köra 32 (varav 31 verkar direkt åtkomliga via DX12) program samtidigt. Detta är inte samma sak som ACE, men DX12 säger inte "det ska fungera som ACE i GCN" utan vad DX12 säger är att man ska kunna definiera separata köer som kan utföra kommandon ("command queue"), beräkningar ("compute queue") samt kopiering av data ("copy/DMA queue"). På GCN är ACE en väldigt naturligt mappning, det enda DX12 dock kräver är att den implementation av DX12 som används utför dessa operationer samt att dessa köer kan användas oberoende från varandra, potentiellt från olika CPU-kärnor.

Min gissning här är att det inte finns en trivial ett-till-ett mappning av detta till Maxwell/Kepler (det finns i Tesla-korten då dessa har något Nvidia kallar Hyper-Q, men det finns inte i konsumentkorten). I slutändan kvittar det totalt om något utförs i GPUn, i CPUn eller en kombination av dessa, huvudsaken är att uppgiften utförs på rätt sätt med hög effektivitet.

Här tror jag Nvidia kommer behöva göra mer arbete i drivers jämfört med AMD. Man har delar av stödet i GPUn då det är möjligt att köra upp till 32 "program" samtidigt, men gissar att man måste göra prioritering av "program" och liknande i drivers -> Nvidia kommer behöva en mer avancerad driver jämfört med AMD. Om detta är fallet kommer det ta mer tid innan Nvidia har riktigt bra DX12 drivers, å andra sidan har man gång på gång visat att man är väldigt duktig på just programutvecklingsbiten (Nvidia har väsentligt många fler ingenjörer som jobbar med programvara jämfört med maskinvara, AMD verkar ha en motsatt fördelning).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av baldViking:

Yes. Även detta är sant. Åtminstone om man ska lita på AMD's slides.

http://cdn.wccftech.com/wp-content/uploads/2014/09/tfx_tr_perf.png

Hairworks använder en standardfunktion i DX11 som kallas tesselation. Denna finess gör det möjligt att skapa extremt många trianglar från relativt lite indata till GPUn, så väldigt effektivt ur den synpunkten.

När man lanserade DX11 pratades just om effekter likt Hairworks och hur det skulle bli "awesome", problemet är att innan GCN1.0/Fermi så tror jag inget kort ens hade stöd för detta. Fermi/Kepler/GCN1.0/GCN1.1 har alla stöd men relativt låg kapacitet, Maxwell har många gånger högre kapacitet och är därför först nu som man faktiskt kan använda "tesselation" på det sätt reklamen för DX11 beskrev det.

GCN1.2 har ungefär dubbla "tesselation" kapaciteten jämfört med motsvarande modell på tidigare GCN version, men det är fortfarande inte på Maxwell nivå. Man borde därför se att t.ex. 380 och Fury-korten fixar Hairworks klart bättre.

Här tycker jag det är fel att gnälla på Nvidia, felet i t.ex. Witcher 3 är att det verkar som man bara brydde sig om Maxwell när man satte parametrarna till Hairworks. Tittar man på Hairworks APIet är det ju en siffra som spelutvecklaren ska sätta som talar om hur mycket "tesselation" man ska utföra, vad jag läst ligger denna ratt på en onödigt hög nivå. Att det blir en stor prestanda-hit på Kepler borde inte förvåna någon, den har inte speciellt bra "tesselation" kapacitet.

Och angående DX12: är det ingen som läst det Oxide skriver om Nvidias DX11 prestanda? Innan man går all-retard på detta så måste notera att Oxide själva är rejält förvånande över hur bra titeln presterar under DX11 på Nvidia kort, det som främst är ett problem just nu är att 980ti verkar underprestera i DX12. Folk jämför 290x och 980ti, där ser AMD extremt starka ut i DX12. Grejen är att det inte alls den skillnad mellan 970 och 980ti i DX12 som man normalt ser i existerande titlar, det verkar helt enkelt som Nvidias HW, driver och/eller något annat stöter på en flaskhals med 980ti. Det kan vara att deras GPU-design faktiskt inte är speciellt bra för DX12, men det kan lika gärna vara något man löser innan DX12 titlarna lanseras. Just nu är detta en osäkerhet, fast att dra några slutsatser är verkligen att extrapolera från en enda mätpunkt.

I slutändan kvittar det hur stor skalning från DX11 blir, det som spelar roll är absolut prestanda i DX12 när detta blir relevant. Är själv totalt övertygad om att GCN kommer tjäna mer på DX12 än Kepler/Maxwell, men tänker inte ge mig på en gissning av hur mycket mer man tjänar när röken kring DX12 lagt sig.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Någon som vill byta mitt 980TI mot Fury X? Har ek vattenblock+backplate. Nöjer mig med Fury X i standard utförande (bra affär för dig)

Permalänk
Medlem
Skrivet av Ratatosk:

500 bjudet för ditt GTX970!
Många lade pengar i mellan och bytte till ett GTX980.
Så valde användarna att straffa Nvida.

Jaha, vilket konstigt beteende

Visa signatur

AMD Ryzen 1500X @ stock | Sapphire RX 580 Nitro+ 8GB | Asus ROG Strix B350-F Gaming | 2x8GB 3200MHz Corsair | EVGA Supernova G3 550W | Acer XF270HUA 1440P 144MHz Freesync

Permalänk
Medlem

Tack Yoshman för två som vanligt utmärkta inlägg.

Skrivet av Yoshman:

Är designen av GCN och dess ACE som får mig tro att något väldigt likt DX12 var redan planerat för Win8. Varför designade annars AMD en GPU som lanserades år 2012 som de måste ha vetat aldrig skulle kunna presterar optimalt med ett API som DX11? Även Fermi innehåller saker som först i DX12 är användbart, Nvidia tog bort dessa i Kepler då de var meningslösa i DX11 och bidrog till högre strömförbrukning.

Du tror förresten inte designen berodde på tv-spelskonsollerna? Det var ju ingen hemlighet att ps3 och x360 inom kort skulle ersättas när AMD tog fram gcn.

Skickades från m.sweclockers.com

Permalänk
Avstängd

En stor anledning att jag köpte mitt GTX 970 var att det ska ha 4GB minne och fullt DX12 stöd. Nu har det 3,5 GB + 500 Mb minne och kanske inte heller fullt DX12 stöd. Lite ledsen i ögat men ändå skapligt nöjd med mitt grafikkort prestanda/pris.

Permalänk
Datavetare
Skrivet av mudde:

Tack Yoshman för två som vanligt utmärkta inlägg.
Du tror förresten inte designen berodde på tv-spelskonsollerna? Det var ju ingen hemlighet att ps3 och x360 inom kort skulle ersättas när AMD tog fram gcn.

Skickades från m.sweclockers.com

Det förklarar inte riktigt varför Fermi också innehåller saker som i slutändan inte kunde användas i DX11. TV-spelen var mer att man tog det man hade, det AMD hade som ingen annan kunde erbjuda var en (i sammanhanget, realistiska alternativ var ju ARM) kraftig CPU och kraftig GPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det förklarar inte riktigt varför Fermi också innehåller saker som i slutändan inte kunde användas i DX11. TV-spelen var mer att man tog det man hade, det AMD hade som ingen annan kunde erbjuda var en (i sammanhanget, realistiska alternativ var ju ARM) kraftig CPU och kraftig GPU.

Fermi kom väl nästan 2 år innan gcn? Då trodde många att framtiden var att gpu:n skulle ta över många tunga beräkningar från CPU:n.

Skickades från m.sweclockers.com

Permalänk
Medlem

@mudde:

Vad som är känt så krävde Sony "Cerny" att PS4:an skulle få 8:a kommando köer just för att man räknade med att kunna vinna enormt på optimeringen av Async Compute, framförallt senare i konsolens livs cykel. Detta är något som AMD även bestämde sig för att implementera i Volcanic Islands kretsarna dvs 290 serien+.

Ashes använder enligt utvecklarna själva väldigt lite async compute, men det ger fortfarande rejält med boost i prestanda. Utvecklarna av The Tomorrow Children har dock skrutit om prestanda vinster upp mot 18- 30 % vilket på PS4:ans hårdvara är en rätt rejäl vinst. Så AMD var redan inne på att det fanns mycket att vinna på den funktionaliteten, sedan ville Sony ta det ett steg längre, vilket AMD sedan tog tillvara på i sina egna grafikkort också.

Källor för intresserade:
http://gamenmotion.blogspot.se/2013/10/playstation-4-amd-rade...
http://gearnuke.com/tomorrow-children-dev-async-compute-benef...
http://www.maximumpc.com/async-shaders-will-allow-gpus-live-t...
http://www.gamasutra.com/view/feature/191007/inside_the_plays...
http://www.extremetech.com/gaming/213202-ashes-dev-dishes-on-...

stavning, flerkällor
Permalänk
Datavetare
Skrivet av mudde:

Fermi kom väl nästan 2 år innan gcn? Då trodde många att framtiden var att gpu:n skulle ta över många tunga beräkningar från CPU:n.

Skickades från m.sweclockers.com

Sant! Nvidia var ju faktiskt de som först var helt all-in på GPGPU och Fermi-designen var väldigt fokuserad på detta.

I stand corrected!

Ok, varför skulle AMD göra en design som inte alls passar DX11 om inte något likt DX12 låg i röret? Om det var enbart för TV-spelen känns det som ett affärsmässigt extremt dåligt beslut då Nvidia har kunnat gjort mer med mindre under en stor del av DX11 tiden (som har varit låång), vi är tyvärr vid en punkt där Nvidia verkar ligga närmare 90% av dGPU-marknaden.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av mudde:

Fermi kom väl nästan 2 år innan gcn? Då trodde många att framtiden var att gpu:n skulle ta över många tunga beräkningar från CPU:n.

Skickades från m.sweclockers.com

GPun har ju tagit över hur mkt som helst genom åren. Typ allt är ju snart GPU accelererat känns det som. Webbläsare, video, photoshop, m.m.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av Yoshman:

Sant! Nvidia var ju faktiskt de som först var helt all-in på GPGPU och Fermi-designen var väldigt fokuserad på detta.

I stand corrected!

Ok, varför skulle AMD göra en design som inte alls passar DX11 om inte något likt DX12 låg i röret? Om det var enbart för TV-spelen känns det som ett affärsmässigt extremt dåligt beslut då Nvidia har kunnat gjort mer med mindre under en stor del av DX11 tiden (som har varit låång), vi är tyvärr vid en punkt där Nvidia verkar ligga närmare 90% av dGPU-marknaden.

Mycket möjligt att du har rätt angående dx12 i win8. Vore kul att veta hur MS tänkte där och vad som lade grunden till besluten som togs.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av mudde:

Mycket möjligt att du har rätt angående dx12 i win8. Vore kul att veta hur MS tänkte där och vad som lade grunden till besluten som togs.

Skickades från m.sweclockers.com

Det måste varit 2007-2009 någon gång om Sony velat ha ACE som krav. Då är det höna eller ägget som gäller för dx12. Om de visste om det då varför släppte AMD mantel. För att visa att det funkar? Då är det märkligt att nVidia som också blev tillfrågad om att göra konsol inte såg detta komma och varför byter xb1 api. Detta måste nVidia ha vetat innan ens Maxwell/Pascal var på tapeten.

Permalänk
Medlem
Skrivet av dahippo:

Det måste varit 2007-2009 någon gång om Sony velat ha ACE som krav. Då är det höna eller ägget som gäller för dx12. Om de visste om det då varför släppte AMD mantel. För att visa att det funkar?

Mantle var väl till stor del just för att visa att det funkar, och för att sätta press på MS genom att både visa hur det görs (på ett sätt som samtidigt gynnar AMDs arkitektur) och genom att få det integrerat i vulkan API.
AMD har ju nytta på många sätt av att CPU belastas mindre i spel:
- mindre krav på att ha marknadens vassaste CPU för gaming. AMDs CPUer duger bra.
- större del av datorbudgeten kan läggas på grafikkort.
- fler grafikkort blir mer användbart om CPU inte flaskar
- stora fördelar med dagens konsoller.

Skickades från m.sweclockers.com

Skum autocorrect
Permalänk
Medlem

@mudde: mao Sony skapade dx12 eller förutsättningarna för det.

Permalänk
Datavetare
Skrivet av dahippo:

Det måste varit 2007-2009 någon gång om Sony velat ha ACE som krav. Då är det höna eller ägget som gäller för dx12. Om de visste om det då varför släppte AMD mantel. För att visa att det funkar? Då är det märkligt att nVidia som också blev tillfrågad om att göra konsol inte såg detta komma och varför byter xb1 api. Detta måste nVidia ha vetat innan ens Maxwell/Pascal var på tapeten.

Nvidia har också jobbat med saker som är en väldigt central del i DX12, "bindless resources". Det demonstrerade första gångerna 2009(!) i form av extensioner till OpenGL. Detta är en stor del i "low-overhead" delen som kommer med DX12.

Edit: och även om XBO byter från DX11 till DX12 så är det mest bara ett nummer, den version av DX11 som XBO körde innan hade redan majoriteten av de finesser PC-maskiner först får med DX12. Dev-bloggar säger ju att man inte kan förvänta sig någon relevant skillnad i prestanda på XBO efter införandet av DX12.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av dahippo:

@mudde: mao Sony skapade dx12 eller förutsättningarna för det.

Inte helt säker på hur du drog den slutsatsen av mitt inlägg som mer lyfte fram anledningar för AMD att ta fram mantle...
Jag syftade mer på att AMD ville visa brister i dx11 som MS visste om men av något skäl inte ville åtgärda.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av ShaZam92:

Är väl klart som fan det skall gå att lämna tillbaka produkten om de ljugit om den?

Om man köpt det nyligen kanske annars tror jag inte det.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av FredrikMH:

Om man köpt det nyligen kanske annars tror jag inte det.

tre års reklamationsrätt vad jag vet. när kortet är köpt lär vara mindre viktigt då det här inte kommit upp förrän nu. bäst att vänta på vad nvidia har att säga först tycker jag.

Permalänk
Medlem

Hmm, undrar om detta är relaterat till de CUDA problem jag har haft med mitt Maxwellkort..? CUDA C/C++ (Nvidias programmeringsspråk för GPGPU) har en funktion som kallas streams. Man ska kunna skicka flera oberoende beräkningspaket till GPU'n för att beräknas asynkront. Varje paket får en egen stream, och innehållet i alla streams är tvunget att vara oberoende av varandra så de kan beräknas parallellt och asynkront. Det fungerade i mitt fall för Fermi och Kepler, men när jag kompilerade exakt samma kod till Maxwellkortet kunde jag inte få det att fungera. Av resultatet att döma verkar den blanda ihop datan mellan paketen eller något i den stilen.

Nu har de olika namn: Async Compute (DX12) och Streams (CUDA), men principen är samma, och möjligen bygger de på samma underliggande funktionalitet. Och Nvidia verkar isåfall sannerligen ha missat något där.
Jag kör Linux btw, så om det är en driverbugg så verkar den finnas i alla drivare. I värsta fall är det en hårdvarubugg, men det går inte att säga i nuläget.

Permalänk
Avstängd
Skrivet av ShaZam92:

Men vad fan! Jag köpte precis ett ett 980 ti. Om det här stämmer och det påverkar prestandan så ska fan Nvidia ersätta alla som köpt Maxwellkort.

På vilket sätt skulle det påverka prestandan? Det har inte med saken att göra alls.

Skrivet av Ratatosk:

Ju längre Nvidia är tysta om saken desto mer misstänkt är det, skiten träffade fläkten i helgen, de borde komma med ett uttalande senast denna vecka.

Varför det? man behöver inte gå ut och försvara allt, framför allt inte rykten, man kan hålla käften tills det är dags och än så länge är det inte dags.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Skrivet av Rajat:

På vilket sätt skulle det påverka prestandan? Det har inte med saken att göra alls.

Vad handlar den viktiga finessen om som fattas enligt Oxide Games, om inte prestanda?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Avstängd
Skrivet av kevve1:

Vad handlar den viktiga finessen om som fattas enligt Oxide Games, om inte prestanda?

Du läser även Se & Hör och Hänt Extra och tar allt där som en sanning?! Eller En Din Ding Värld med för den delen, detta är ett rykte, ett rykte är ingen sanning och Oxide Games har INGEN inblick i NVIDIA så att de vet vad de håller på med, spelet är inte ens klart, det är långt ifrån klart och NVIDIA behöver inte ha bråttom att göra något om så skulle vara fallet, är säkerligen inget som är värre än att det kommer med en driveruppdatering NÄR DET ÄR DAX.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Datavetare
Skrivet av kevve1:

Vad handlar den viktiga finessen om som fattas enligt Oxide Games, om inte prestanda?

Är inte problemet var att Nvidia kort hävdar att de stödjer en funktion som sedan inte fungerar korrekt / ger lägre prestanda? Spelet fungerar korrekt även om finessen inte finns, nuvarande "fix" är att manuellt se till att inte använda detta om GPU-tillverkaren är Nvidia?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av versions:

tre års reklamationsrätt vad jag vet. när kortet är köpt lär vara mindre viktigt då det här inte kommit upp förrän nu. bäst att vänta på vad nvidia har att säga först tycker jag.

Ja fast jag tror inte det går att reklamera det. Nvidias kort klarar av att hantera funktionen i DX12 men gör det extremt mycket långsammare än AMDs kort. Oavsett kan Nvidia fortfarande argumentera att där inte är något fel på kortet. Men man kan ju hoppas att med hjälp av drivar så löses det i alla fall delvis.

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Avstängd

Gör rätt från början,köp AMD Radeon

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)