AMD kniper marknadsandelar från Nvidia

Permalänk
Medlem
Skrivet av jesusbarnet:

Ja och den arkitekturen heter pascal vilket är känt sedan länge

Antar att det säger rätt mycket om hur relevant Nvidia är för mig.

Skickades från m.sweclockers.com

Visa signatur

12600K, GTX 980 Ti, 16GB DDR4@3200MHz

Permalänk
Skrivet av anon5930:

Nu upptäcktes problemet efter att produkterna skeppats. Sedan är det knappast AMD själva som sätter ihop produkterna. Varken AMD eller Nvidia gör sådant utan företag gör detta jobb. Foxconn troligen i detta fall.

Självklart har också underleverantören ett ansvar, hade de inte det så hade hela marknaden fallit ihop för längesedan.

Om du beställer en sak från en underleverantör till en produkt som du ska tillverka så är det ditt ansvar att ge dem en ritning och sedan kontrollera att de gjort rätt, så det är ditt ansvar om det blivit fel då underleverantören endast följt dina instruktioner på den ritning du gav dem.

Permalänk
Inaktiv
Skrivet av FlippsyFlipp:

Om du beställer en sak från en underleverantör till en produkt som du ska tillverka så är det ditt ansvar att ge dem en ritning och sedan kontrollera att de gjort rätt, så det är ditt ansvar om det blivit fel då underleverantören endast följt dina instruktioner på den ritning du gav dem.

Coolermaster har också ett ansvar att se till att produkten de leverar är som den ska vara. Vilket den nu inte var.

Permalänk
Medlem
Skrivet av Friterad:

Det gäller att man helt enkelt väljer att använda prisjakt och beställer från en billigare butik. http://www.prisjakt.nu/#rparams=ss=970

Märkte snabbt att NetOnNet slår Webbhallen på fingrarna på t.ex detta kortet:
https://www.netonnet.se/art/komponenter/grafikkort/nvidia/asu...

2990kr på NetOnNet och 3689kr på Webbhallen.

Va snackar du om? Det är inte samma kort.

EDIT: Detta är kortet jag har:
http://www.prisjakt.nu/produkt.php?p=2820784

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Inaktiv

Förstår inte varför alla tjatar om DX12. Det kommer ta många år innan DX12 blir standard och Nvidia kommer säkert komma ikapp på DX12 fronten.

Permalänk
Medlem
Skrivet av BrottOchStraff:

Va snackar du om? Det är inte samma kort.

EDIT: Detta är kortet jag har:
http://www.prisjakt.nu/produkt.php?p=2820784

Jag vet, men även på ditt kort så är Webbhallen inte billigast, där tar Dustin priset. Visserligen bara med 150kr. Men i alla fall så har priset på 970 stannat på samma ställe, antagligen pga dollarn. Hade det inte varit för att dollarn blev så hög så tror jag säkert vi hade fått oss en sänkning. Det skiljer sig några hundringar per modell och återförsäljare med

Permalänk
Skrivet av anon5930:

Coolermaster har också ett ansvar att se till att produkten de leverar är som den ska vara. Vilket den nu inte var.

De har inte möjlighet att testa den tillsammans med det den ska sitta på, de har bara en ritning att följa och det är AMD's ansvar att den är rätt. Om du jobbade med produktion så skulle du veta, så är det med allt vi tillverkar, vi får in en ritning och det är upp till beställaren att den är rätt eftersom det är det enda vi har att gå på och vi tillverkar den del vi gör efter vad det står på den.

Permalänk
Inaktiv
Skrivet av FlippsyFlipp:

De har inte möjlighet att testa den tillsammans med det den ska sitta på, de har bara en ritning att följa och det är AMD's ansvar att den är rätt. Om du jobbade med produktion så skulle du veta, så är det med allt vi tillverkar, vi får in en ritning och det är upp till beställaren att den är rätt eftersom det är det enda vi har att gå på och vi tillverkar den del vi gör efter vad det står på den.

Självklart har Coolermaster möjlighet att testa om deras grejer fungerar, de levereras färdiga. Du vet att det är en AIO-kylare och den är klar från fabrik? Tvivlar starkt på att de som monterar korten får dessa i delar för att sedan sätta ihop dessa, fylla på vätska och kontrollera så att de inte läcker. Detta är Coolermasters jobb. Inklusive att kvalitetssäkra och kontrollera deras produkter. Självklart har Coolermaster ansvar för saker de tillverkar, hur skulle det annars fungera.

Nu har även jag arbetat inom produktion (maskiner, stora maskiner) och de inköpta deltaljerna är självklart testade från tillverkaren. Fungerar inte att få levererat defekta grejer när det ofta är rätt hård tidspress att få saker klar för leverans till kund.

Nu är det nog diskuterat då vi inte kommer någon vart. Att du inte anser att Coolermaster har något ansvar för något är rätt uppenbart. Jag håller uppenbarligen inte med.

Permalänk

Det är vilseledande att annonsera det här som ett skifte i marknaden i Sweclockers nyhet!

I praktiken kan man inte tolka in någonting i det här resultatet (21% vs 18%). Med tanke på hur stor felmarginalen är i sådana här marknadsuppskattningar p.g.a. bristande datapunkter och antaganden/subjektivt modellerande.

Jag måste ofta använda sådana här rapporter (och även estimera själv) i jobbet och tja... Man ser ganska snabbt att man får ta det med en näve salt

Permalänk
Medlem
Skrivet av anon114264:

Förstår inte varför alla tjatar om DX12. Det kommer ta många år innan DX12 blir standard och Nvidia kommer säkert komma ikapp på DX12 fronten.

För att det är först nu som DX12 kommer mer i spel, och jag som så många andra vill gärna sätta tänderna i just DX12. Nvidia kommer absolut att göra bättre ifrån sig senare men vem vill vänta ? det är frågan.

Visa signatur

[i7 6700k @4500|Asus Z170 Pro Gaming|Corsair Vengeance DDR4 3200MHz XMP |EVGA GQ 1000W Hybrid Modular 80+|MSI GeForce GTX 1080|Windows 10 Pro Swe|Aoc 28-4K|SSD Samsung 850 evo 250 Gb|

Permalänk
Inaktiv
Skrivet av AmdX2:

För att det är först nu som DX12 kommer mer i spel, och jag som så många andra vill gärna sätta tänderna i just DX12. Nvidia kommer absolut att göra bättre ifrån sig senare men vem vill vänta ? det är frågan.

Visst om man man suktar efter nya spel men 99% av dagens spel stöder DX11 och där halkar AMD efter. Inte alla som hoppar på nya spel så fort de släpps.

Permalänk
Skrivet av anon5930:

Självklart har Coolermaster möjlighet att testa om deras grejer fungerar, de levereras färdiga. Du vet att det är en AIO-kylare och den är klar från fabrik? Tvivlar starkt på att de som monterar korten får dessa i delar för att sedan sätta ihop dessa, fylla på vätska och kontrollera så att de inte läcker. Detta är Coolermasters jobb. Inklusive att kvalitetssäkra och kontrollera deras produkter. Självklart har Coolermaster ansvar för saker de tillverkar, hur skulle det annars fungera.

Nu har även jag arbetat inom produktion (maskiner, stora maskiner) och de inköpta deltaljerna är självklart testade från tillverkaren. Fungerar inte att få levererat defekta grejer när det ofta är rätt hård tidspress att få saker klar för leverans till kund.

Nu är det nog diskuterat då vi inte kommer någon vart. Att du inte anser att Coolermaster har något ansvar för något är rätt uppenbart. Jag håller uppenbarligen inte med.

Det var inte vad jag skrev heller, jag skrev att de inte hade möjlighet att testa dem monterade på grafikkortet.

Om du nu tillverkat saker som tredje part så borde du ju veta hur det är, jag har jobbat med att tillverka saker som ABB beställt för att använda på deras transformatorer, men vi tillverkade bara delarna enligt de ritningar vi fick, vi fick ingen transformator att testa dem på.

Permalänk
Medlem
Skrivet av anon114264:

Visst om man man suktar efter nya spel men 99% av dagens spel stöder DX11 och där halkar AMD efter. Inte alla som hoppar på nya spel så fort de släpps.

visst halkar AMD efter i DX11 men framtiden ligger i DX12 och det är nog just där många vill vara.Jo det är en stor del som hoppar på nya spel.

Visa signatur

[i7 6700k @4500|Asus Z170 Pro Gaming|Corsair Vengeance DDR4 3200MHz XMP |EVGA GQ 1000W Hybrid Modular 80+|MSI GeForce GTX 1080|Windows 10 Pro Swe|Aoc 28-4K|SSD Samsung 850 evo 250 Gb|

Permalänk
Hjälpsam
Skrivet av anon114264:

Visst om man man suktar efter nya spel men 99% av dagens spel stöder DX11 och där halkar AMD efter. Inte alla som hoppar på nya spel så fort de släpps.

AMD halkar inte efter i DX11, de hänger i högsta grad med där.
http://techfrag.com/2016/03/01/far-cry-primal-benchmarks-show...
Efter patchar snurrar AMD också fint i Raise of Tomb Raider och Fallout 4.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av anon185723:

AMD dog för mig när de tog bort DVI-I

Dags att gå vidare i livet.
DVI kommer att fasas ut mer och mer.
Den härstammar från 90 talet och tar för stor plats helt enkelt.
Det räcker att kolla på korten som är ute nu och som kommer för att se det.
Sedan behövs den inte då det finns både HDMI och D-P.
För den som kanske bara har DVI på sin monitor så finns det diskreta och smidiga adaptrar.

Min slutpoäng är att det är dags för både tillverkare och konsument att gå till nyare standarder.

/Lifooz

Visa signatur

Deepcool Matrexx 30 & MSI Z87-G43 Gaming!
Intel Inside Core I7 4790K med AMD Radeon R9 390!
Rubbet strömförsörjs av Corsair RM750X!

Permalänk

Få se med nya gen, om AMD kan klätra till 30% av marknaden, är ju bra om båda företagen går plus i alla fall.

Ska bli kul och se hur fom nya korten presterar. Men mest nyfiken på zen.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Inaktiv
Skrivet av Lifooz:

Dags att gå vidare i livet.
DVI kommer att fasas ut mer och mer.
Den härstammar från 90 talet och tar för stor plats helt enkelt.
Det räcker att kolla på korten som är ute nu och som kommer för att se det.
Sedan behövs den inte då det finns både HDMI och D-P.
För den som kanske bara har DVI på sin monitor så finns det diskreta och smidiga adaptrar.

Min slutpoäng är att det är dags för både tillverkare och konsument att gå till nyare standarder.

/Lifooz

Problemet med avsaknaden utav dvi-i är att alla adaptrar som finns i dag är skit. Det finns inte en enda kompetent diskret och smidig Dvi-i adapter med en hyffsad ramdac. Allt skit på marknaden har en ramdac på bara 160-165MHz när integrerat klarar 400MHz.

Detta är ett problem för alla som inte köper Nvidia som fortfarande levererar dvi-i med sina grafikkort. Jag kommer fortsätta köpa Nvidia och deras värstingkort så länge de bryr sig om entusiaster. Adaptrar är bara bra som ersättning när de levererar, vilket dvi-i adaptrarna i dag inte gör. Vem fan vill sitta fast på 1280x1024 @ 85hz med en sketen adapter när skärmen klarar 2304x1440@80hz?

Permalänk
Skrivet av anon185723:

Problemet med avsaknaden utav dvi-i är att alla adaptrar som finns i dag är skit. Det finns inte en enda kompetent diskret och smidig Dvi-i adapter med en hyffsad ramdac. Allt skit på marknaden har en ramdac på bara 160-165MHz när integrerat klarar 400MHz.

Detta är ett problem för alla som inte köper Nvidia som fortfarande levererar dvi-i med sina grafikkort. Jag kommer fortsätta köpa Nvidia och deras värstingkort så länge de bryr sig om entusiaster. Adaptrar är bara bra som ersättning när de levererar, vilket dvi-i adaptrarna i dag inte gör. Vem fan vill sitta fast på 1280x1024 @ 85hz med en sketen adapter när skärmen klarar 2304x1440@80hz?

Pascal kommer inte ha DVI. Grafikkortstillverkarna har kommit överens att alla nya chip som lanseras från och med sommaren 2015 inte ska ha DVI. Det är helt enkelt upp till tredjepart om korten ska ha DVI eller inte. Det är därför endast Asus som har ett Fury kort med DVI, Asus valde helt enkelt att inkludera det själv.

Edit: rätta till texten.

Permalänk
Medlem
Skrivet av Yoshman:

Hur har du kommit till den slutsatsen? Jämför hur Kepler står sig mot Maxwell i äldre spel, där ser man än idag ungefär samma relativa prestanda som vid lansering av Maxwell. Problemet för Kepler är att spelen gått mot tekniker som passar den mikroarkitekturer väldigt illa, finns väldigt lite Nvidia kan göra i drivers för att fixa detta.

Titta också på Ashes of the Singularity, ett spel som olikt i princip alla andra spel är extremt begränsad av shader-kapacitet i inställningar över "high". Där presterar t.ex. 780Ti bättre än 970, vilket är förväntat då shader-kapaciteten är högre i 780Ti. Varför "vinner" då Kepler om Nvidia medvetet gimpat mikroarkitekturen i nya drivers?

Majoriteten av alla dagens spel är däremot begränsade av saker där Maxwell har betydligt bättre kapacitet än Kepler, så idag är 970 är i princip alltid snabbare än 780Ti och även det borde vara förväntat utfall. Äldre spel hade andra flaskhalsar.

Nu tror jag du missförstod mig. Jag menar att äldre grafikkort med nyare drivrutiner som kommit efter att en ny grafikkortserie släppts presterar sämre i de spel som var akutella för de äldre grafikkorten. Med andra ord planerat åldrande.

Tror det bl a sägs här:

Skrivet av Thomaseron:

Ett intressant klipp i ämnet, för den som pallar med skotska.
https://www.youtube.com/watch?v=O7fA_JC_R5s

Tillägg: nej, det var kanske inte där jag såg det. Eller så blandar jag ihop det. Men han pratade iaf om planerat åldrande i den videon.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Hjälpsam
Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Yoshman:

Hur har du kommit till den slutsatsen? Jämför hur Kepler står sig mot Maxwell i äldre spel, där ser man än idag ungefär samma relativa prestanda som vid lansering av Maxwell. Problemet för Kepler är att spelen gått mot tekniker som passar den mikroarkitekturer väldigt illa, finns väldigt lite Nvidia kan göra i drivers för att fixa detta.

Titta också på Ashes of the Singularity, ett spel som olikt i princip alla andra spel är extremt begränsad av shader-kapacitet i inställningar över "high". Där presterar t.ex. 780Ti bättre än 970, vilket är förväntat då shader-kapaciteten är högre i 780Ti. Varför "vinner" då Kepler om Nvidia medvetet gimpat mikroarkitekturen i nya drivers?

Majoriteten av alla dagens spel är däremot begränsade av saker där Maxwell har betydligt bättre kapacitet än Kepler, så idag är 970 är i princip alltid snabbare än 780Ti och även det borde vara förväntat utfall. Äldre spel hade andra flaskhalsar.

Helt korrekt de försämrar inte de äldre korten med drivare utan det är utvecklingen av nya tekniker som gör det. Det som är lite problematiskt är implementeringen av Gameworks. Om jag här förstått det rätt så är Gameworks ett optimerat grafikpaket från Nvidia som ska ge mervärde till deras grafikkort genom att ge spelen effekter som utnyttjar tekniker som finns implementerade på Nvidia,s grafikkort. Det uppmanar till köpet av nya grafikkort för att man ska kunna ta del av det senaste ögongodiset, det är ett otroligt smart drag av Nvidia och det är inget fel med det. Det Nvidia satsar hårdast på just nu är tesselering, Maxwell är riktigt grym på tesselering och då är det logiskt att många av Gameworks effekter är baserad på det. Helt enkelt kort som inte är lika bra på tesselering presterar sämre än Maxvell.

Problemet ligger i att Gamerworks är mer eller mindre som en av/på knapp av effekter, det innebär att man kan inte justera och anpassa inställningar efter det grafikkortet man har utan man har valet av eller på. I Witcher 3 så var tesseleringen i Hairworks inställt på x64, en absurt hög nivå. Det skadade prestandan på alla kort förutom de som var Maxwell baserade. Kepler är inte direkt urkass på tesselering, de är garanterat bättre än AMD,s alternativ men på grund av de absurt höga inställningarna så sabbas prestandan totalt. Det går lätt att lösa genom att ge spelarna mer alternativ men det ser ut som Nvidia inte direkt var intresserad av att fixa det. Witcher 3 är inte direkt ensam om det, flera spel som jag har lirat med Gameworks har haft liknande problem, det är helt enkelt av eller på som gäller. Ett extremexempel är spelet Prjoect Cars, fysiken i spelet ska tydligen köra helt och hållet på PhysX, det finns inget att ställa in och som resultat så presterar alla kort dåligt i det spelet förutom Maxwell. Det är rätt surt för Nvidias trogna kunder som sitter på äldre kort.

Gameworks har blivit kallad en "svart låda" av många utvecklare, det finns helt enkelt ingen insyn överhuvudtaget i hur Gameworks egentligen fungerar förutom för Nvidia själva, spelutvecklare kan helt enkelt bara implementera och hoppas på det bästa. Nvidia har tydligen kämpat för att hålla andra företag utanför utvecklingen av spelen om utnyttjar Gameworks, sen hävdar dem att det är totalt omöjligt att optimera Gameworks effekter på AMD,s grafikkort vilket har visat sig vara en ren lögn. Nvidia har blivit lite ökända genom åren för att de ska vara struliga att jobba med. De ska tydligen vara så struliga att Linus Torvalds har bett dem att dra åt helvete.

Det här är informationen som jag har stött på under de senaste 2-3 åren och hur jag har uppfattat det, rätta mig gärna om jag har fel. Jag skulle faktiskt bli glad om problemen låg någon annanstans än i just Gameworks och Nvidias agerande. Nvidia har all rätt i världen att göra det här, de bryter inte mot några lagar och det är upp till spelföretagen om de vill använda Gameworks eller inte och hur låst spelet ska vara till Gameworks funktioner. Oavsett så tycker jag Nvidia beter sig otroligt kasst och att de kan skada hela spelindustrin på PC.

Permalänk
Inaktiv
Skrivet av Wasted Hobbit:

Pascal kommer inte ha DVI. Grafikkortstillverkarna har kommit överens att alla nya chip som lanseras från och med sommaren 2015 inte ska ha DVI. Det är helt enkelt upp till tredjepart om korten ska ha DVI eller inte. Det är därför endast Asus som har ett Fury kort med DVI, Asus valde helt enkelt att inkludera det själv.

Edit: rätta till texten.

Mitt Titan X har DVI-I och än så länge är det AMD och Intel som har gått ut med att de slutar stödja DVI-I. Nvidia har inte sagt något. Om du har källa eller insider information så får du gärna dela med dig. Annars får vi se när Nvidia slutar stödja DVI-I. Själv har jag inget intresse utav DVI-D då det finns adaptrar. Men tyvärr så finns det ingen kompetent adapter för oss entusiaster för att helt ersätta DVI-I och dess ramdac som kom med på grafikkort

Permalänk
Skrivet av anon185723:

Mitt Titan X har DVI-I och än så länge är det AMD och Intel som har gått ut med att de slutar stödja DVI-I. Nvidia har inte sagt något. Om du har källa eller insider information så får du gärna dela med dig. Annars får vi se när Nvidia slutar stödja DVI-I. Själv har jag inget intresse utav DVI-D då det finns adaptrar. Men tyvärr så finns det ingen kompetent adapter för oss entusiaster för att helt ersätta DVI-I och dess ramdac som kom med på grafikkort

Var lite mer säker än vad jag borde ha varit, antingen minns jag lite fel eller så hittar jag inte det jag läste innan. Stod i alla fall inget om sommaren så där hade jag helt fel. Inget specifikt om Nvidia heller, så får ursäkta för det.

http://www.sweclockers.com/artikel/21068-bildanslutningar-del...
"VGA och DVI är två tekniker som överlevt längre av vad många önskat, inte minst då tillverkarna med Intel i spetsen vilka kommit överens om att fasa ut tekniken under 2015."

Har inte direkt stenkoll men skulle gissa att Nvidia inte kommer använda DVI på Pascal. Titan X släpptes i mars 2015 vilket var början på året och specifikationerna och korten kan ha varit spikade och redan på g runt december 2014. Lite svårt att säga hur man ska se på just det chippet. När större delen av industrin slutar stödja DVI har jag svårt att se varför Nvidia skulle lägga ner tid och energi på det. Dock mycket möjligt att tredjepartstillverkare fortsätter med det på vissa kort.

Edit: Sen kan man alltid påpeka att det är en helt ny nod och architektur samt high end korten kommer köra med HBM och kommer nog försöka utnyttja sin nya formfaktor så bra som möjligt, så chansen att HBM Pascal kommer att ha DVI är mindre än resten av deras kort. Så att sammanfatta så ser det ut att finnas fler anledningar till att skippa DVI än att fortsätta med det, i alla fall när det kommer till referenskorten.

Permalänk
Datavetare
Skrivet av Wasted Hobbit:

Helt korrekt de försämrar inte de äldre korten med drivare utan det är utvecklingen av nya tekniker som gör det. Det som är lite problematiskt är implementeringen av Gameworks. Om jag här förstått det rätt så är Gameworks ett optimerat grafikpaket från Nvidia som ska ge mervärde till deras grafikkort genom att ge spelen effekter som utnyttjar tekniker som finns implementerade på Nvidia,s grafikkort. Det uppmanar till köpet av nya grafikkort för att man ska kunna ta del av det senaste ögongodiset, det är ett otroligt smart drag av Nvidia och det är inget fel med det. Det Nvidia satsar hårdast på just nu är tesselering, Maxwell är riktigt grym på tesselering och då är det logiskt att många av Gameworks effekter är baserad på det. Helt enkelt kort som inte är lika bra på tesselering presterar sämre än Maxvell.

Problemet ligger i att Gamerworks är mer eller mindre som en av/på knapp av effekter, det innebär att man kan inte justera och anpassa inställningar efter det grafikkortet man har utan man har valet av eller på. I Witcher 3 så var tesseleringen i Hairworks inställt på x64, en absurt hög nivå. Det skadade prestandan på alla kort förutom de som var Maxwell baserade. Kepler är inte direkt urkass på tesselering, de är garanterat bättre än AMD,s alternativ men på grund av de absurt höga inställningarna så sabbas prestandan totalt. Det går lätt att lösa genom att ge spelarna mer alternativ men det ser ut som Nvidia inte direkt var intresserad av att fixa det. Witcher 3 är inte direkt ensam om det, flera spel som jag har lirat med Gameworks har haft liknande problem, det är helt enkelt av eller på som gäller. Ett extremexempel är spelet Prjoect Cars, fysiken i spelet ska tydligen köra helt och hållet på PhysX, det finns inget att ställa in och som resultat så presterar alla kort dåligt i det spelet förutom Maxwell. Det är rätt surt för Nvidias trogna kunder som sitter på äldre kort.

Gameworks har blivit kallad en "svart låda" av många utvecklare, det finns helt enkelt ingen insyn överhuvudtaget i hur Gameworks egentligen fungerar förutom för Nvidia själva, spelutvecklare kan helt enkelt bara implementera och hoppas på det bästa. Nvidia har tydligen kämpat för att hålla andra företag utanför utvecklingen av spelen om utnyttjar Gameworks, sen hävdar dem att det är totalt omöjligt att optimera Gameworks effekter på AMD,s grafikkort vilket har visat sig vara en ren lögn. Nvidia har blivit lite ökända genom åren för att de ska vara struliga att jobba med. De ska tydligen vara så struliga att Linus Torvalds har bett dem att dra åt helvete.

Det här är informationen som jag har stött på under de senaste 2-3 åren och hur jag har uppfattat det, rätta mig gärna om jag har fel. Jag skulle faktiskt bli glad om problemen låg någon annanstans än i just Gameworks och Nvidias agerande. Nvidia har all rätt i världen att göra det här, de bryter inte mot några lagar och det är upp till spelföretagen om de vill använda Gameworks eller inte och hur låst spelet ska vara till Gameworks funktioner. Oavsett så tycker jag Nvidia beter sig otroligt kasst och att de kan skada hela spelindustrin på PC.

Kolla Gameworks exemplen, det är allt annat än en "svart låda med på/av knapp". T.ex. så är tesselering för Hairworks fullt konfigurerbar, så det är inte Nvida/Gameworks som ska ha skit för Witcher 3, det är CD project RED!

Gameworks en mellanprogramvara som levereras i binärformat, men det gäller ju även DirectX och hela Windows... Sedan är det är möjligt för speltillverkare att få tillgång till källkod (men inte tillåtet att vidare distribuera källkoden).

Edit: som jag förstått är det dock inte gratis om man vill ha tillgång till källkoden, vilket är fallet om man bara använder Gameworks i binärformat.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

Kolla Gameworks exemplen, det är allt annat än en "svart låda med på/av knapp". T.ex. så är tesselering för Hairworks fullt konfigurerbar, så det är inte Nvida/Gameworks som ska ha skit för Witcher 3, det är CD project RED!

Gameworks en mellanprogramvara som levereras i binärformat, men det gäller ju även DirectX och hela Windows... Sedan är det är möjligt för speltillverkare att få tillgång till källkod (men inte tillåtet att vidare distribuera källkoden).

Edit: som jag förstått är det dock inte gratis om man vill ha tillgång till källkoden, vilket är fallet om man bara använder Gameworks i binärformat.

Att kunna betala för en licens var något Nvidia la till i efterhand, krävdes en hel del gnäll innan de gick med på det. Sen så är det Nvidia som bestämmer vilka som får köpa licensen för tydligen får inte alla spelbolag göra det. De har heller aldrig gått ut med vad licensen kostar och vilka som har tagit del av den.

I så fall ser det ut som att utvecklarna är allmänt lata, rent generellt. Flera företag har även vägrat att jobba med AMD även utanför Gameworks, de har helt enkelt inte låtit AMD jobba med drivare under spelens utveckling överhuvudtaget (i allafall om man ska tro på AMD).

När det kommer till Witcher 3 så har det varit totalt kaos. Nvidia säger att om spelutvecklarna betalar för Gameworks licensen så får utvecklarna fria händer att sammarbeta med AMD för att optimera Gameworks för deras hårdvara men det är utvecklarnas ansvar och inte AMD,s då de inte får ta del av koden. CD Project RED säger att Nvidia ljuger och att det är omöjligt att anpassa Gameworks för någon annan hårdvara än deras. Rockstar North visade att det visst går att anpassa spel åt både Nvidia,s och AMD,s hårdvara i GTA V.

CD Project RED hävdar även att den stora prestanda skillnaden beror på att AMD,s kort helt enkelt är kassa på tesselering. Nvidia säger att deras kort är bättre anpassade för tesselering och effekterna i Gameworks. AMD håller med Nvidia för de har sagt själva att Maxwell är bättre på tesselering. Prestanda tester visar att CD Project RED ljuger då det är en betydande märkbar skillnad mellan Nvidia,s och AMD,s kort men inte i närheten i den magnitud som uppstår med Hairworks i Witcher 3.

AMD vart bittra över att effekterna och ändringarna dök upp sent i utvecklingen så de inte han anpassa sig.

AMD gillar inte Gameworks och det är ingen hemlighet men de hävdar att det är av moraliska skäl.

En del utvecklare säger att Nvidia är svåra och jobba med och att Gameworks är en "black box" och att det kommer att skada industrin. Nvidia,s svar på det var i princip "spelindustrin har alltid sett ut såhär". Men det stämmer inte, låst grafisk middleware är rätt nytt.

Nvidia har ljugit och det är inge nytt men de största lönghalsarna ser ut att vara CD Project RED. AMD har även dragit sina strån till stacken dem med.

De är i alla fall det som jag lyckats gräva fram på lite kort tid med lite mer insikt i det hela.

Min personliga åsikt är att Gameworks är en dum idé och kan långsiktigt skada industrin och även sabba för Nvidia själva.

Om jag har skrivit som en kratta så ber jag om ursäkt i förväg, klockan är 02:00 och jag skriver på min telefon.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av htbtoma:

@Yoshman:

HD 6950 > 560TI
HD 7970 > GTX 680
R9 290 > GTX 780
r9 390 > GTX 970

4 direkta konkurrenter pris och prestandamässigt vid släpp där AMD's kort alla visat sig klara sig bättre och dra ifrån prestandamässigt över tid, från 4 olika generationer.

vid släpp drog korten jämnt men efter något år av optimeringar presterar amd korten bättre generellt i samtliga jämförelser, så att säga att AMD's kort åldras bättre än Nvidia är definitivt sant.

AMD är ofta kraftfullare i grund och botten men Nvidia mer optimerade vid lansering är min synpunkt på saken.

i den absoluta toppen är det svårt att göra någon bra jämförelse eftersom AMD på senare år inte haft någon direkt utmanare, men i mellansegmentet där de allra flesta konsumenter finns och volymsförsäljningen sker är detta i vart fall sant.

ska tillägga att jag köper det som är bäst pris/prestanda när jag ska köpa oavsett "lag". nästa gång kan det mycket väl bli nvidia om det intresserar mig mest.

Tittade på ett test mellan Gigabyte R9 290 och MSI Geforce GTX 970 för Crysis 3
där så är Radeonkortet 10% bättre FPS än Geforce. Så R9 390 har nog ingen motsvarighet hos Nvida.

Permalänk
Medlem
Skrivet av Exxovion:

Eftersom det egentligen inte är något fel på de korten. Hade varit betydligt värre om det visat sig att korten var defekta.

Hur kan du säga så?

Korten marknadsfördes som "grafikkort med 4GB ram" det klassas som enthusiastkort, en stor andel av de som köpte kortet gjorde så för att just 4GB ram ska vara "framtidssäkert" d.v.s man kan köra spel frammåt på hög (som 4k upplösning). Så visar det sig vara 3.5GB "bra minne" med 500mb av oanvändbart minne som sänker FPS tillbaka till isåldern så fort man överskrider dessa 3.5GB vilket precis inte uppfyller anledningen som de köpte kortet för.

Sedan lovade NVIDIA att de skulle släppa drivrutiner som låser bort dessa "dåliga" 500mb av minne.
Sedan säger NVIDIA att det inte blir något av dessa drivisar.
I nuvarande drivrutiner är det "optimerat" att undervika dessa "dåliga" 500mb av minne.

Det hela bortförklarar NVIDIA med "oj, vår marknadsavdelning hade fattat fel när de skapade produktbeskrivningen" HMMMMMM.

Jag kör ett 970 just nu p.g.a att kortet såldes för lägre kostnad än r9 380 och att jag vet att jag inte kommer att köra spel på så pass höga upplösningar att det kräver mer än 3.5 gig, men för folk som köpte kortet just för fulla 4gig minne ja det är ju på gränsen till bedrägeri.
oj vår marknadsavdelning har gjort bort sig tyvärr blir det ingen ersättning. vill ni att det ska flyta på kan ni gärna spendera mer pengar för 980 :^)"
Är du seriös?

Permalänk
Medlem
Skrivet av mrwu:

Hur kan du säga så?

Korten marknadsfördes som "grafikkort med 4GB ram" det klassas som enthusiastkort, en stor andel av de som köpte kortet gjorde så för att just 4GB ram ska vara "framtidssäkert" d.v.s man kan köra spel frammåt på hög (som 4k upplösning). Så visar det sig vara 3.5GB "bra minne" med 500mb av oanvändbart minne som sänker FPS tillbaka till isåldern så fort man överskrider dessa 3.5GB vilket precis inte uppfyller anledningen som de köpte kortet för.

Sedan lovade NVIDIA att de skulle släppa drivrutiner som låser bort dessa "dåliga" 500mb av minne.
Sedan säger NVIDIA att det inte blir något av dessa drivisar.
I nuvarande drivrutiner är det "optimerat" att undervika dessa "dåliga" 500mb av minne.

Det hela bortförklarar NVIDIA med "oj, vår marknadsavdelning hade fattat fel när de skapade produktbeskrivningen" HMMMMMM.

Jag kör ett 970 just nu p.g.a att kortet såldes för lägre kostnad än r9 380 och att jag vet att jag inte kommer att köra spel på så pass höga upplösningar att det kräver mer än 3.5 gig, men för folk som köpte kortet just för fulla 4gig minne ja det är ju på gränsen till bedrägeri.
oj vår marknadsavdelning har gjort bort sig tyvärr blir det ingen ersättning. vill ni att det ska flyta på kan ni gärna spendera mer pengar för 980 :^)"
Är du seriös?

Det är 4GB minne på korten och 4GB är användbart. Visst, med viss begränsning för de sista 500MB:en.

Men när är det ens ett riktigt problem? http://www.sweclockers.com/nyhet/19947-nvidia-bekraftar-minne...

GTX 970 för 4K? Nej nej, det är ett för klent kort oavsett minne.

Permalänk
Inaktiv
Skrivet av Wasted Hobbit:

Att kunna betala för en licens var något Nvidia la till i efterhand, krävdes en hel del gnäll innan de gick med på det. Sen så är det Nvidia som bestämmer vilka som får köpa licensen för tydligen får inte alla spelbolag göra det. De har heller aldrig gått ut med vad licensen kostar och vilka som har tagit del av den.

I så fall ser det ut som att utvecklarna är allmänt lata, rent generellt. Flera företag har även vägrat att jobba med AMD även utanför Gameworks, de har helt enkelt inte låtit AMD jobba med drivare under spelens utveckling överhuvudtaget (i allafall om man ska tro på AMD).

När det kommer till Witcher 3 så har det varit totalt kaos. Nvidia säger att om spelutvecklarna betalar för Gameworks licensen så får utvecklarna fria händer att sammarbeta med AMD för att optimera Gameworks för deras hårdvara men det är utvecklarnas ansvar och inte AMD,s då de inte får ta del av koden. CD Project RED säger att Nvidia ljuger och att det är omöjligt att anpassa Gameworks för någon annan hårdvara än deras. Rockstar North visade att det visst går att anpassa spel åt både Nvidia,s och AMD,s hårdvara i GTA V.

CD Project RED hävdar även att den stora prestanda skillnaden beror på att AMD,s kort helt enkelt är kassa på tesselering. Nvidia säger att deras kort är bättre anpassade för tesselering och effekterna i Gameworks. AMD håller med Nvidia för de har sagt själva att Maxwell är bättre på tesselering. Prestanda tester visar att CD Project RED ljuger då det är en betydande märkbar skillnad mellan Nvidia,s och AMD,s kort men inte i närheten i den magnitud som uppstår med Hairworks i Witcher 3.

AMD vart bittra över att effekterna och ändringarna dök upp sent i utvecklingen så de inte han anpassa sig.

AMD gillar inte Gameworks och det är ingen hemlighet men de hävdar att det är av moraliska skäl.

En del utvecklare säger att Nvidia är svåra och jobba med och att Gameworks är en "black box" och att det kommer att skada industrin. Nvidia,s svar på det var i princip "spelindustrin har alltid sett ut såhär". Men det stämmer inte, låst grafisk middleware är rätt nytt.

Nvidia har ljugit och det är inge nytt men de största lönghalsarna ser ut att vara CD Project RED. AMD har även dragit sina strån till stacken dem med.

De är i alla fall det som jag lyckats gräva fram på lite kort tid med lite mer insikt i det hela.

Min personliga åsikt är att Gameworks är en dum idé och kan långsiktigt skada industrin och även sabba för Nvidia själva.

Om jag har skrivit som en kratta så ber jag om ursäkt i förväg, klockan är 02:00 och jag skriver på min telefon.

Skickades från m.sweclockers.com

Något som också är stört är hur spel som designats för PS4 och Xbox One (som använder både AMD för CPU och GPU) "kidnappas" på väg till PC och får Gameworks och plötsligt fungerar riktigt dåligt på system med AMD. Rise of the Tomb Raider är ett bra exempel här.

Nu har spelet uppdaterats en gång och AMD har fått ut en ny drivare sedan jag spelade det senast men anmärkningsvärt hur uselt det spelet faktiskt fungerade vid lanseringen. Nu kommer någon säkert gnälla på att allt som vanligt skulle vara AMDs fel men när AMD inte ens får tillgång till spelet innan lansering för att kunna optimera drivare och dessutom har Gameworks-problematiken som ställer till det så är det faktiskt ett rätt dåligt läge för spelbranschen på PC. Orimligt att kunden straffas för valet (om personen ens fått välja) av komponenter i sin dator bara för att GPU-tillverkaren har fel namn. Minst lika illa att spelföretagen som väljer att göra detta mot sina kunder gör det utan att tänka på vilka som föder dom. Bit inte handen som föder er, eller hur ordspråket nu var.

Permalänk
Skrivet av anon5930:

Något som också är stört är hur spel som designats för PS4 och Xbox One (som använder både AMD för CPU och GPU) "kidnappas" på väg till PC och får Gameworks och plötsligt fungerar riktigt dåligt på system med AMD. Rise of the Tomb Raider är ett bra exempel här.

Nu har spelet uppdaterats en gång och AMD har fått ut en ny drivare sedan jag spelade det senast men anmärkningsvärt hur uselt det spelet faktiskt fungerade vid lanseringen. Nu kommer någon säkert gnälla på att allt som vanligt skulle vara AMDs fel men när AMD inte ens får tillgång till spelet innan lansering för att kunna optimera drivare och dessutom har Gameworks-problematiken som ställer till det så är det faktiskt ett rätt dåligt läge för spelbranschen på PC. Orimligt att kunden straffas för valet (om personen ens fått välja) av komponenter i sin dator bara för att GPU-tillverkaren har fel namn. Minst lika illa att spelföretagen som väljer att göra detta mot sina kunder gör det utan att tänka på vilka som föder dom. Bit inte handen som föder er, eller hur ordspråket nu var.

Om man ska tro Nvidia så förhindrar inte Gameworks utvecklarna att optimera Gameworks för AMD kort och att Gameworks inte är ett exklusivt avtal så att utvecklarna får fritt jobba med AMD på drivare. Det AMD hävdar är att så fort ett bolag börjar ett närmare samarbete med Nvidia och Gameworks så nekar utvecklarna AMD,s hjälp och samarbete, de har tillochmed nekat AMD att skicka egen kod och ingenjörer. Det gör så att AMD får jobba i mörkret och ibland så kan de inte få vissa saker att fungera någonsin, crossfire är ett sådant exempel som kräver mer insyn.

Gameworks fungerar och kan flyta på gamla Nvidia kort och nya AMD kort, det har man sett. CD Project RED hävdar dock motsatsen, de säger att det är totalt omöjligt.

Nvidia är jobbiga att ha och göra med, det är inge nytt. Det finns en anledning till att folk undviker dem i vissa fall. En del utvecklare och vissa bolag bland annat giganter som Intel är missnöjda med Nvidia och Gameworks. Nvidia svara med att industrin har alltid sett ut såhär och att alla gör som dem. Ingen håller med Nvidia på den punkten.

Om Nvidia har rätt så är det nästan helt och hållet utvecklarnas fel, deras ansvar och deras problem. Utvecklarna svara inte på något, de säger endast att Gameworks grejerna inte är till för AMD kort och att resten av deras prestanda problem förbryllar dem.

Nvidia ljuger en hel del om allt möjligt men hur mycket de ljuger om villkoren till Gameworks är nästintill omöjligt att veta. Den enda slutsatsen man kan dra är att utvecklarna helt enkelt inte vill jobba med AMD, speciellt när de får special stöd och grejer från Nvidia. Även när AMD har erbjudit att fixa kod och ingenjörer själva.

Något som är säkert är att det som håller på att hända just nu kommer skada hela industrin, att Gameworks oavsett är en raritet och ett "Dick move". Jag undrar även hur andra bolag kommer att kontra med i slutändan, jag skulle i alla fall inte vilja göra Intel till en fiende.

Skickades från m.sweclockers.com