AMD Radeon RX 6800 och RX 6800 XT

Permalänk
Benchmaskin 🍞
Skrivet av _Merc_:

så du vill endast ha intel som test system, vem av oss är fanboy?

Amd är bäst för gaming nu, det bästa du kan köpa för pengarna i år är 5950 o 6900.

Hardwareunboxed är bästa techtuber kanakem för benchmarks och sweclockers nvidia bias är vad som håller dem tillbaka. Hade nvidias tidigare produkter belagts med lika mycket kritik runt drivrutiner, msrp och direkta fel i specifikationerna som 970, så kanske jag hade gått med på att sweclockers review är en av dem bättre. Men sen kollar jag en sväng på youtube o gn, hardwareunboxed o till o med linus ger en bättre review.

Du får gärna förklara exakt hur vi är Nvidia-bias? Angående Nvidias 970-fuckup så har du fått svar på den tidigare och kan inte hänga upp dig på den hela tiden.

Permalänk
Medlem
Skrivet av Zuggzor:

Kan som svar på detta säga att jag gjort precis detta och låg i början av veckan på köplats ~250 att få mitt kort av Inet. Så nej, alla som beställt sina kort för intropris har inte fått dem.

Jag sa ju inte att alla har fått sina kort dock, men en hel del har fått det. Min polare fick sitt TuF som han beställde relativt nära lanseringen men han gav bort det till en polare sålänge.
Och i slutändan så kommer du ju faktiskt att få ditt kort.

Skrivet av EvonS:

Och tilläggas bör väl också att korten testas över hela världen av recensenter och recensionerna går efter "lockpriset" som blir mer positivt då... som sen inte speglar verkligheten.
Så recensenter får leka nyttiga "idioter".
Nä har börjat få sån ruskig avsmak för hela skiten. Girigheten, lögnerna mm vet inga gränser snart.

Amd har tidigare varit lite räddningen men de börjar likna Nvidia alltmer med små lögner, prishajk osv.. hmm Nvidias CEO och AMDs är ju släktingar... släktskapet börjar kanske gå också i båda bolagen, deras stil osv???? (Jaaa, nu var ja lite elak)

Nu går det ju dock fortfarande att köpa FE för intropris och alla som beställde de subventionerade korten kommer ju fortfarande få det för intropris.
Sen så höjdes inte priset direkt till 10000 för alla kort, endast flagship modeller som FTW3 Ultra och Strix. De andra ligger som alltid 10-11% högre än MSRP.

Permalänk
Datavetare
Skrivet av Novdid:

HU kör med en 3950X så det är väl på något sätt väntat att det diffar om alla andra kör liknande system. Jag tycker inte att de sysslar med något felaktigt sett till metod.

Sedan avviker nog SweC sett till 4K och resultaten för 3090, eller tolkar jag din sammanställning fel?

4k resultatet för 3090 ligger lite högre hos SweC än de andra, men avvikelsen är på en helt annan nivå än den HU har och deras är konsekvent rakt igenom.

Denna gång har vi en möjlighet att få en känsla för osäkerheten i dessa mätningar då SweClockers presterar samma GPUer körande samma spel med två olika CPUer. I genomsnitt, d.v.s. sett till prestandaindex, är det minimal skillnad. Om man tittar på enskilda mätningar finns det ibland väldigt stora variationer, framförallt i lägsta FPS.

Vad man ska ta med sig är nog: prestandaindex har nog rätt bra stabilitet, men man ska absolut inte stirra sig allt för blind på enskilda titlar, framförallt inte lägsta FPS, då dessa verkar ha relativt stor osäkerhet. D.v.s. helt normalt när man gör sådana här mätningar!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av The Kristoffer:

De senaste generationerna har ju ballat ur fullständigt. Känns som att PC gaming kommer att stagnera om det fortsätter såhär. 1440p-skärmar har hängt med i typ 10 år vid det här laget, ändå är det typ omöjligt att hitta ett kort som matchar den upplösningen till ett vettigt pris.
Ser memes om "But can it play Cyberpunk 2077" inkommande. Kommer säkert dröja 5 år innan det kommer gå att driva det spelet i en idag standardupplösning, med RT påslaget.

Så kommer det ju dock att förbli. Det är inte endast inflation som styr prishöjningar.
Vill man nyttja en ny teknik så får man vara villig att punga ut större belopp, annars får man helt enkelt skippa det och köra vanlig rasterisering.

Permalänk
Medlem
Skrivet av Yoshman:

4k resultatet för 3090 ligger lite högre hos SweC än de andra, men avvikelsen är på en helt annan nivå än den HU har och deras är konsekvent rakt igenom.

Denna gång har vi en möjlighet att få en känsla för osäkerheten i dessa mätningar då SweClockers presterar samma GPUer körande samma spel med två olika CPUer. I genomsnitt, d.v.s. sett till prestandaindex, är det minimal skillnad. Om man tittar på enskilda mätningar finns det ibland väldigt stora variationer, framförallt i lägsta FPS.

Vad man ska ta med sig är nog: prestandaindex har nog rätt bra stabilitet, men man ska absolut inte stirra sig allt för blind på enskilda titlar, framförallt inte lägsta FPS, då dessa verkar ha relativt stor osäkerhet. D.v.s. helt normalt när man gör sådana här mätningar!

Som konstaterats tidigare så är HU ensamma om att testa på förra generationen Ryzen som är en sämre arkitektur för spel specifikt. Då bör siffrorna avvika, det är väntat. Och deras skäl till det valet är förståeliga som jag skrev om tidigare i tråden.

Jag är helt med dig i din slutsats i övrigt angående att indexerade resultat är mest signifikativt.

Permalänk
Medlem
Skrivet av Yoshman:

Till alla som hävdar att SweClockers resultat är "fel" och sedan pekar på Hardware Unboxed. Tycker det är HU som är det avvikande värdet här och för att kolla lite om det bara var mer än en känsla jämförde jag fyra webbplatser som alla sammanställer ett "prestandaindex" över alla spel man testat

Använder 6800XT som referens, siffrorna som visas är hur många procent de övriga skiljer sig från det kortet. Har tittat på SweClockers, Computer Base (typ Tysklands svar på SweClockers), Hardware Unboxed samt TechPowerUp.

1920x1080

GPU

SweClockers

ComputerBase

HardwareUnboxed

TechPowerUp

3090

11

11

-1

9

3080

3

6

-6

6

3070

-17

-11

-17

-9

6800

-11

-12

missing

-11

4k

GPU

SweClockers

ComputerBase

HardwareUnboxed

TechPowerUp

3090

24

18

16

17

3080

11

11

4

6

3070

-20

-20

-22

-20

6800

-12

-14

missing

-13

Endera har de andra gjort samma misstag, eller så är det (än en gång, det har hänt tidigare att HU väsentligt skilt sig från de andra) något som inte står helt rätt till med HU siffror. Nvidia får konsekvent lägre i deras mätningar, även om 4k inte är i närheten lika out-of-whack som 1920x1080.

Vågar man ta ett medelvärde av dessa 4 resultat?
Eller skiljer det för mycket mellan resultaten föra att våga dra slutsatser.

Kanske vänta tills att nya drivrutiner dyker upp på bägge sidor?

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Datavetare
Skrivet av Novdid:

Som konstaterats tidigare så är HU ensamma om att testa på förra generationen Ryzen som är en sämre arkitektur för spel specifikt. Då bör siffrorna avvika, det är väntat. Och deras skäl till det valet är förståeliga som jag skrev om tidigare i tråden.

Jag är helt med dig i din slutsats i övrigt angående att indexerade resultat är mest signifikativt.

TechPowerUp använder en 9900K @ 5,0 GHz medan ComputerBase använder en 3900XT stock. Så den förklaringen fungerar inte riktigt heller.

Vad man bör ta med sig från SweClockers test av två CPUer är: det finns överhuvudtaget ingen skillnad mellan 10900K @ 5,0 GHz och 5900X ens med de high-end kort som testas här.

Nu kollade jag inte 1440, har inte tid just nu, men HU hade en viss avvikelse även i 4k där det verkar väldigt osannolikt att CPU-delen skulle spela någon roll.

Skrivet av kotz:

Vågar man ta ett medelvärde av dessa 4 resultat?
Eller skiljer det för mycket mellan resultaten föra att våga dra slutsatser.

Kanske vänta tills att nya drivrutiner dyker upp på bägge sidor?

Det kan om man vill. Personligen skulle jag nog skippa HU värdena innan man riktigt förstår varför de avviker så mycket som de gör.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Nekrol:

Inget av det du påstår är ju sant dock? Även står skillnad på DLSS Quality mode och Performance mode när det gäller bildkvalitet.
Och mitt 3080 kör Metro Exodus i 100+ fps på Caspian Sea med Ultra Preset och RT High, vet inte om jag skulle kalla det för ospelbart i 1440p.

Nice. Upplever du att RT ger en bättre upplevelse i Metro?

Permalänk
Medlem
Skrivet av kotz:

Vågar man ta ett medelvärde av dessa 4 resultat?
Eller skiljer det för mycket mellan resultaten föra att våga dra slutsatser.

Kanske vänta tills att nya drivrutiner dyker upp på bägge sidor?

Valet är ju ganska enkelt. Bryr du dig inte om RT så är det endast personlig preferens och pris som spelar någon roll.

Permalänk
Medlem
Skrivet av Yoshman:

Till alla som hävdar att SweClockers resultat är "fel" och sedan pekar på Hardware Unboxed. Tycker det är HU som är det avvikande värdet här och för att kolla lite om det bara var mer än en känsla jämförde jag fyra webbplatser som alla sammanställer ett "prestandaindex" över alla spel man testat

Använder 6800XT som referens, siffrorna som visas är hur många procent de övriga skiljer sig från det kortet. Har tittat på SweClockers, Computer Base (typ Tysklands svar på SweClockers), Hardware Unboxed samt TechPowerUp.

1920x1080

GPU

SweClockers

ComputerBase

HardwareUnboxed

TechPowerUp

3090

11

11

-1

9

3080

3

6

-6

6

3070

-17

-11

-17

-9

6800

-11

-12

missing

-11

4k

GPU

SweClockers

ComputerBase

HardwareUnboxed

TechPowerUp

3090

24

18

16

17

3080

11

11

4

6

3070

-20

-20

-22

-20

6800

-12

-14

missing

-13

Endera har de andra gjort samma misstag, eller så är det (än en gång, det har hänt tidigare att HU väsentligt skilt sig från de andra) något som inte står helt rätt till med HU siffror. Nvidia får konsekvent lägre i deras mätningar, även om 4k inte är i närheten lika out-of-whack som 1920x1080.

Håller med, HU's test är gjort med en 3950x, det kommer ge märkliga resultat i 1080p och 1440p då en 3950x helt enkelt inte orkar driva den Fps som dessa kort kan spotta ur sig i de upplösningarna. 1080p är dessutom den upplösning de valde att testa processorer med sist och de kör samma inställningar nu men kallar det gpu test trots att samma test kunde påvisa rätt massiv ökning med en 5900x exempelvis.

Jag vet hur min 3900x kan bli flaskhals i 1080p och den levererar ändå högre fps än HU's 3950x setup I de titlar jag kunde jämföra med mitt 3090 i ren stock och jag var som sagt rätt långt ifrån helt gpu bunden då, vi pratar gpu användning på 70% i en del test.

Visa signatur

| nVidia RTX3090FE | R9 5800X3D | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 12TB nvme, 2TB sata SSD | RM1000x | Creative X4 | Antec C8 | Alienware aw3821dw | >Antec C8 Custom Loop< |

Permalänk
Medlem
Skrivet av roo:

Sett/läst 8 reviews på 6800xt - Sjukt oklart vad prestandan är. Känns som olika reviwers får olika resultat vissa närmre än andra. Bara jag som uppmärksammat detta?

Märker samma men det jag ändå tycker är klart är att i 1080p så är det nästan sak samma utan RT. 1440p och speciellt UWD uppåt så tar 3080 tronen

Visa signatur

Dator: i7 9700k @ 5.0 Ghz - Asus Rog Strix OC 2080 Super
3600mhz 32gb - Gigabyte UD Z390 - Dark Rock Pro 4 - M.2 SSD MP510

Kringutrustning: Xiaomi 34" 3440x1440 - Xtrfy K4 - Glorious 0 Mus
Ljud: DT770 80ohm Headset - E10K DAC/AMP

Permalänk
Medlem
Skrivet av Yoshman:

TechPowerUp använder en 9900K @ 5,0 GHz medan ComputerBase använder en 3900XT stock. Så den förklaringen fungerar inte riktigt heller.

Vad man bör ta med sig från SweClockers test av två CPUer är: det finns överhuvudtaget ingen skillnad mellan 10900K @ 5,0 GHz och 5900X ens med de high-end kort som testas här.

Nu kollade jag inte 1440, har inte tid just nu, men HU hade en viss avvikelse även i 4k där det verkar väldigt osannolikt att CPU-delen skulle spela någon roll.

OK, missat att Computerbase kör äldre Ryzen också.

Oavsett så brukar jag personligen väga ihop olika tester. Det kan vara så att HU har en övervikt av spel som uppenbart fungerar onormalt bra på AMD:s grafikkort, som exempelvis Dirt 5. Det är spel de egentligen inte borde ha med då just det spelet avviker från andra, det finns något mer spel till som kanske faller in i det facket vilket kan ge en skev bild av helheten.

Permalänk
Medlem

Då kan man pusta ut och påstå att mitt 3080 var ett bra köp.
Detta imponerar inte.

Permalänk
Medlem
Skrivet av Magnus112233:

Nice. Upplever du att RT ger en bättre upplevelse i Metro?

Personligen tycker jag att det höjer upplevelsen avsevärt. Det ger hela världen ett mer naturligt ljus vilket i stort sätt påverkar hela spelets färgsättning. Även byggnader som blir belysta av naturligt ljus påverkas och får en kusligare känsla.

Körde igenom det på piratversion när spelet först kom eftersom jag inte ville stödja EGS.
Körde då med ett 2080ti och fick rätt schysst prestanda, kanske 70-80 fps i snitt med 55-60fps på Taiga som är den tyngsta banan.
Betydligt sämre prestanda på steam versionen då den versionen hade Denuvo, och det märktes verkligen i detta spel. Nu när Denuvo togs bort så valde jag att testa igen och diggar verkligen hur bra det flöt med 3080.

Extreme preset dödar prestandan i detta spel för väldigt lite visuell förbättring, samma med RT Ultra. Så ska man köra är det Ultra preset med RT High som gäller.

Återstår att se hur hårt Taiga nivån sänker prestandan.

EDIT: Bör tilläggas att Metro absolut inte ska köras med DLSS då det använder DLSS 1.0. Spelet ser helt horribelt ut med DLSS påslaget.

Edit 2: Mitt system består utav 2666 MHz RAM, 9700K på 5GHz och RTX 3080 FTW3 Ultra.

Permalänk
Datavetare
Skrivet av Novdid:

OK, missat att Computerbase kör äldre Ryzen också.

Oavsett så brukar jag personligen väga ihop olika tester. Det kan vara så att HU har en övervikt av spel som uppenbart fungerar onormalt bra på AMD:s grafikkort, som exempelvis Dirt 5. Det är spel de egentligen inte borde ha med då just det spelet avviker från andra, det finns något mer spel till som kanske faller in i det facket vilket kan ge en skev bild av helheten.

Nu vet jag inte hur HU beräknar sitt medelvärde, men normen för benchmarks är att använda geometriskt medelvärde om man vill skapa ett övergripande resultat av flera benchmarks. Använder man det får enstaka kraftigt avvikande värden betydligt mindre påverkan än om man kör "vanligt" aritmetisk medelvärde.

Just för spel kan man även argumentera för att använda harmonisk medelvärde, i alla fall om man vill räkna ut en "typisk FPS" baserat på en uppsättning spel. Harmoniskt medelvärde kommer vikta dippar högre än övriga varianter, så det är ett medelvärde som gynnas när man håller en hög lägstanivå.

Har jämfört harmoniskt och geometriskt medelvärde en hel del just för spelprestanda, verkar kvitta vilket man använder när man tittar på relativa skillnader mellan kort. Brukar skilja 0-2 %-enheter i relativ prestanda mellan dessa metoder. Skiljer däremot en del i genomsnittlig FPS över alla titlar, harmoniskt medelvärde ger (per dess definition) alltid lika eller lägre värde än geometrisk medelvärde. Tänkvärt som för den som vill veta vilken GPU som krävs för att alltid utnyttja sin X Hz monitor

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Jag trodde 6800XT skulle vara bättre än 3080 men men. Roligt att AMD är uppe och slåss med toppkorten i alla fall. 6800 verkar vara ett bra köp

Permalänk
Skrivet av Sienar:

1440p 71fps med RT On Vs 121 med RT och DLSS. Ser inte att något av dessa är ospelbara. DLSS kommer fortsätta förbättras, det är redan riktigt bra idag. Ser gärna dina "debunk" videos du nämner på DLSS 2.0. De videos jag har sett ger i stort sätt samma grafik i Native some 1080p uppskalat. Native är lite bättre i vissa lägen då det inte har några artefakter men DLSS är bättre då det behåller vissa kontraster under rörelse. Att det skulle göra att allting ser så mycket sämre ut än native har jag svårt att tro.

Jag tror stenhårt på att DLSS eller liknande tekniker kommer bli mer och mer standard med hur mycker ML hamnat i fokus.

Tycker också att det är ganska tydligt när man läser mitt meddelande att jag syftade på med DLSS.

1440p 71fps med RT On Vs 121fps i 1080p uppskalat känns ju inte som ett highendkort jag skulle slanta 10k för direkt. Knappt spelbart precis vid inköp.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem

AMD Radeon RX 6800XT breaks HWBOT’s 3DMark Fire Strike world record

Nice!

Nu väntar vi bara på ett tok-klockat 6900 XT oxå.

Permalänk
Medlem

Sitter lite i valet och kvalet här, har nog råkat få tag på ett 6800 xt för 7990 kr. Dock spelar jag i 4k vilket verkar vara något av kortets akilleshäl. Kommer få tillökning i familjen i början av nästa år så har tagit december ledigt för att spela så behöver ett kort ganska omgående. Alternativet är ju ett av de där 9500 kr 3080 korten som pytsas ut ibland. Men frågan är om de är värt dedär 20% högre kostnad, för 5-10% extra prestanda + RT (- men gimpad mängd minne). Gah blir smått galen. Man borde kanske leta upp någon kompis som fått tag på ett 3080 men lirar i låga upplösningar för ett byte...

Permalänk
Medlem
Skrivet av The Kristoffer:

1440p 71fps med RT On Vs 121fps i 1080p uppskalat känns ju inte som ett highendkort jag skulle slanta 10k för direkt. Knappt spelbart precis vid inköp.

Smaken är som baken. Jag gillar RT skarpt.

Skrivet av SamuelSvensson:

Sitter lite i valet och kvalet här, har nog råkat få tag på ett 6800 xt för 7990 kr. Dock spelar jag i 4k vilket verkar vara något av kortets akilleshäl. Kommer få tillökning i familjen i början av nästa år så har tagit december ledigt för att spela så behöver ett kort ganska omgående. Alternativet är ju ett av de där 9500 kr 3080 korten som pytsas ut ibland. Men frågan är om de är värt dedär 20% högre kostnad, för 5-10% extra prestanda + RT (- men gimpad mängd minne). Gah blir smått galen. Man borde kanske leta upp någon kompis som fått tag på ett 3080 men lirar i låga upplösningar för ett byte...

Fick du tag på referenskortet? Då lär ju det bli lätt att byta mot 3080. Du kanske tom går plus

Permalänk
Skrivet av Banco:

Har DLSS 2.0 blivit debunkad? När jag söker på det så blir det bara pris och beröm. "Inte perfekt men jäkligt bra" är väl en sammanfattning jag har upplevt.

Ja, den sammanfattningen cirklejerkas bland frälsta som inte spenderat allt för mycket tid med bildredigering och stirrar sig blinda på fps. Det är ju supersamplad lågupplöst bild med kontrastskärpa i princip. Klart det ger fler fps, och att kalla det native 4k "med DLSS" blir ju bara missvisande.

Visa signatur

i7 6700k @4,1 base - 4,4 Turbo | XFX 590X Fatboy | Gigabyte Z270 D3 | 2x16 GB Corsair Vengence 3200MHz Cl 16| Intel 750 400GB |EVO 970 1 TB Steamdrive| 64TB thin provision

Permalänk
Medlem
Skrivet av The Kristoffer:

1440p 71fps med RT On Vs 121fps i 1080p uppskalat känns ju inte som ett highendkort jag skulle slanta 10k för direkt. Knappt spelbart precis vid inköp.

Nu skulle jag anse att 71fps är spelbart och kanske helt OK på ett highend-kort, förutsatt att spelet ser ut därefter och har en typ av "game play" som gör att det inte krävs 120fps+ för att njuta av upplevelsen.

Permalänk
Medlem
Skrivet av Sienar:

Smaken är som baken. Jag gillar RT skarpt.

Fick du tag på referenskortet? Då lär ju det bli lätt att byta mot 3080. Du kanske tom går plus

Haha ja, fick ett grattis- mail från komplett iaf så vi får se. Jo byte är ett alternativ ja inte tänkt på så mycket än, men de är kanske en bra idé trots allt i dessa galna tillgänglighetstider.

Permalänk
Medlem

Hur kan 6800XT slå rekord i diverse saker men i ”real world”-spelande så når det inte riktigt hela vägen fram?

Permalänk
Medlem
Skrivet av wessmen:

Hur kan 6800XT slå rekord i diverse saker men i ”real world”-spelande så når det inte riktigt hela vägen fram?

Det är lite som att mer eller mindre alla får olika resultat vid sina tester, fåtal fps och poäng hit och dit. Man får ta det mesta med en nypa salt och uppleva det IRL.

Permalänk
Medlem
Skrivet av Olle P:

För AMD gäller ju också att en omställning till ökad produktion av GPUer skulle innebära en minskning i produktionen av CPU/APU på samma nod. Sett till waferyta och yield borde en GPU matcha en 64-kärnig Epyc Milan, och vilken av dessa som ger mest klirr i kassan för AMD är inte svårt att gissa...

Länk till videon.

Ja, det här är det många som inte riktigt vill förstå.
Då en chiplet är 75mm2 och GPU:n 520(?) mm2 lär man ju lätt få ut 15 st chiplets för varje GPU, och även om man stoppar det i 15 st Ryzen 5600X så tjänar man bra mycket mer pengar på det än att kränga en GPU för 8000kr.
M.a.o. kommer AMD bara vara intresserade av konsument GPU:er så länge dom har överkapacitet hos TSMC, vilket man ju undrar om dom har med tanke på alla produkter som använder samma tillverknings process. Vi får hoppas dom kunnat köpa på sig så mycket att det inte konkurrerar med andra produkter.

Permalänk
Medlem
Skrivet av bobbeyblade:

Ja men nu kommer AMDs krets sitta i miljoner konsoller, förmodligen kommer drivarna inte va ett problem den här gången
dessutom kommer utvecklarna kunna optimera grafiken lättare då övergången knappast lär va svår.

Sitter AMD GPU i alla XB1/PS4 också..., just sayin'. Men självklart hoppas vi på bra drivrutiner!

Visa signatur

Amd o Apple

Permalänk
Skrivet av SectionX2:

Lustigt hur sweclockers kan klaga på priset medan 2080ti fick kosta 15-20 tusen utan klagomål.

Tycker jag har märkt detta som ett återkommande problem då priset ibland gör skillnad för utmärkelsen och ibland inte utan något konkret svar. Personlig tycker jag priset ska tas med men kanske som en sidnot av hur prisvärd varan är.

Permalänk
Medlem
Skrivet av ddelin:

Ja, det här är det många som inte riktigt vill förstå.
Då en chiplet är 75mm2 och GPU:n 520(?) mm2 lär man ju lätt få ut 15 st chiplets för varje GPU, och även om man stoppar det i 15 st Ryzen 5600X så tjänar man bra mycket mer pengar på det än att kränga en GPU för 8000kr.
M.a.o. kommer AMD bara vara intresserade av konsument GPU:er så länge dom har överkapacitet hos TSMC, vilket man ju undrar om dom har med tanke på alla produkter som använder samma tillverknings process. Vi får hoppas dom kunnat köpa på sig så mycket att det inte konkurrerar med andra produkter.

520/75 ~ 7 chiplets per gpu absolut inte 15

AMD har verkligen ingen överkapacitet hos TSMC utan har redan svårt att leverera Epyc, Ryzen, nya konsolerna, och nu dessa kort (och de kommande i lägre segment)

Varje GPU kanske kan säljas till en partner för mindre än halva försäljningspriset på kortet, så kanske 300-350$

En cpu har förvisso en io-die också, men redan chiplets i sin billigaste form säljs ju för 100$+ (ryzen 3100) som minst, säg att hälften är intäkten för vhipleten. Så intäkterna är åtminstone likvärdiga redan på lägsta nivån av CPU, jämför vi med Epyc med sina kanske 500-1000$ per chiplet så ser vi ganska snabbt hur dumt det är för AMD att producera GPU-chip alls.

Jag säger absolut inte att de går back på att göra GPUer, jag antar att de har koll på sånt, men de går definitivt mycket mindre plus på dessa i förhållande till CPU-chiplets

Permalänk
Benchmaskin 🍞
Skrivet av Pellemanify:

Tycker jag har märkt detta som ett återkommande problem då priset ibland gör skillnad för utmärkelsen och ibland inte utan något konkret svar. Personlig tycker jag priset ska tas med men kanske som en sidnot av hur prisvärd varan är.

Jag svarade på det tidigare i tråden.

Skrivet av Kenneth:

du menar förutom nackdelen "Snuskigt dyrt" och att det inte fanns något annat kort att välja i den prestandaklassen?