AMD Radeon RX 7900 XTX och RX 7900 XT – lag röd slår tillbaka med RDNA 3

Permalänk
Medlem
Skrivet av ipac:

Erm, Custom N5. Inte att förväxla med N4. Jag är ledsen.

Möjligt att det denna custom-variant kostar mer men å andra sidan så slänger AMD pengar på annat innan 7900XTX är klar så tyvärr är det troliga att AMD ändå betalar mer.

Det är rent nonsens det finns ett skäl till att Nvidia tar 1199 dollar med 65 % vinst marginal det innebär att 4080 kostar nästan 800-760 dollar att tillverka. AMD har lägre vinst marginal men inte så låg .Undrar du hur jag räknar säljaren har 5-6 % vinst marginal .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av ottoblom:

Ja det är därför man tar alla nackdelar med och bryta ut delar av kretsen . Det är mycket billigare

Det är billigare än motsvarande monolistisk krets.

Däremot kan du inte säga att det alltid är, helt automatiskt, billigare än alla monolistiska kretsar (och kringkretsar, inkl minnen). Det är korkat.

Permalänk
Medlem

Verkar vara ett rätt roligt kort om man monterar vattenkylning och har köpt ett med lite bättre strömförsörjning. Kanske något att byta ut mitt GTX1080 till

Visa signatur

Snälla citera när ni svarar :D

Wololo

Permalänk
Medlem
Skrivet av ipac:

Det är billigare än motsvarande monolistisk krets.

Däremot kan du inte säga att det alltid är, helt automatiskt, billigare än alla monolistiska kretsar (och kringkretsar, inkl minnen). Det är korkat.

Fast det handlar om wafers och kostnaden för den . En 4nm Wafers kostar mycket mer kontra 5 nm . för att inte tala om 6 nm som är en förfining av den åldrade 7 nm även om den säkert kostar 15 % mer än 7 nm .Sen du tjänar inte ett skit på och krympa en 256 mb buss . det blir samma antal per wafer oavsett 10 nm eller 5 nm

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av ottoblom:

Det är rent nonsens det finns ett skäl till att Nvidia tar 1199 dollar med 65 % vinst marginal det innebär att 4080 kostar nästan 800-760 dollar att tillverka. AMD har lägre vinst marginal men inte så låg .Undrar du hur jag räknar säljaren har 5-6 % vinst marginal .

Fast du har ingen aning vilket förhållande det är, för specifikt 4080, mellan BOM+Mfg och slutpris mot kund så nonsensbiten är jag rädd att du står bäst för själv.

Faktum kvarstår, det åtgår en ansenlig mängd "assets" för att sätta ihop ett XTX varför det inte är självklart att ett sådant kort är billigare än just 4080. Att hänga upp sig på "men chiplet är billigt" duger inte.

Permalänk
Medlem
Skrivet av ipac:

Erm, Custom N5. Inte att förväxla med N4. Jag är ledsen.

Möjligt att det denna custom-variant kostar mer men å andra sidan så slänger AMD pengar på annat innan 7900XTX är klar så tyvärr är det troliga att AMD ändå betalar mer, eller iaf inte mindre.

RTX 4080:
379 mm2 die på custom N5 process ("4N"), 95% av kärnorna nyttjat.
8 minnesmoduler på 256 bit buss.

7900 XTX:
300 mm2 die på N5 process, 100% av kärnorna nyttjat.
+ 222 (6 * 37) mm2 die på N6 process, 100% nyttjat.
+ chiplet montering
12 minnesmoduler på 384 bit buss

4080 kostar minst 6000:-(enligt rykten) i produktion innan forskning etc skall ha sitt. Så skulle gissa att kostnaden är runt 8k utan vinst eller där omkring

Chiplet är sagt att det skall vara betydligt lägre samt högre yield

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av ipac:

Fast du har ingen aning vilket förhållande det är, för specifikt 4080, mellan BOM+Mfg och slutpris mot kund så nonsensbiten är jag rädd att du står bäst för själv.

Faktum kvarstår, det åtgår en ansenlig mängd "assets" för att sätta ihop ett XTX varför det inte är självklart att ett sådant kort är billigare än just 4080. Att hänga upp sig på "men chiplet är billigt" duger inte.

Erm ingen aning ? bara se på vinst marginal företagen vill ha och kostnaden för wafers . Du har dock inte en aning .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av ottoblom:

Fast det handlar om wafers och kostnaden för den . En 4nm Wafers kostar mycket mer kontra 5 nm . för att inte tala om 6 nm som är en förfining av den åldrade 7 nm även om den säkert kostar 15 % mer än 7 nm .Sen du tjänar inte ett skit på och krympa en 256 mb buss . det blir samma antal per wafer oavsett 10 nm eller 5 nm

Nej det handlar om kostnaden för ett helt kort.

Och fortfarande, det är inte N4 noden vi pratar om. Men ja, en custom N5 är troligt dyrare än en vanilla N5. Det har vi redan konstaterat.

Permalänk
Medlem
Skrivet av ottoblom:

Erm ingen aning ? bara se på vinst marginal företagen vill ha och kostnaden för wafers

Haha, snälla säg att du skämtar?

Tror du på fullaste allvar att du kan räkna ut exakt BOM för en enskild produkt enbart utifrån uttalad önskad marginal?

Herregud...

Permalänk
Medlem
Skrivet av Lussarn:

<Uppladdad bildlänk>

Det du säger om vad man kan få för frekvens på Nvidia stämmer inte. Men din argumentation håller viss bäring om man anser att teoretiska antalet bilder ut genom en kabel = snabbast grafikkort. Det där håller nog inte många med om dock.

Som du ser så har du endast 8 bit färgdjup på grund av att du väljer 144Hz. I 120Hz kan du kör med 10 bit färgdjup (ingen komprimering) Många pratar om att allt måste vara på max för att få så bra upplevelse som möjligt. Med ett Nvidiakort så tappar du kvalité när du kör spel snabbare än 120Hz i 4K

Vill du läsa på? https://www.digitaltrends.com/computing/displayport-2-1-big-d...

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Som du ser så har du endast 8 bit färgdjup på grund av att du väljer 144Hz. I 120Hz kan du kör med 10 bit färgdjup (ingen komprimering) Många pratar om att allt måste vara på max för att få så bra upplevelse som möjligt. Med ett Nvidiakort så tappar du kvalité när du kör spel snabbare än 120Hz i 4K

Vill du läsa på? https://www.digitaltrends.com/computing/displayport-2-1-big-d...

HDMI 2.1 då (iaf för er på Windows, vilket är nvidia-andel stor mängd)
https://www.reddit.com/r/Monitors/comments/in2b25/does_hdmi_2...

Visa signatur

| 212965 00 ] == :^D * ==)

Permalänk
Trollfabrik 🫶🏻
Skrivet av backsten:

Chiplets fördelar var ju att det skulle bli billigare. Vore ju trevligt om vi konsumenter fick känna av det också. Priset och namnet på AMD RX 7900XT borde vara billigare och få lika mycket skit som Nvidia 4080 12gb. Samma scam som Nvidia tycker jag iallafall. 7900xt borde kallas 7800xtx eller bara 7800xt.

Skrivet av Swedishchef_90:

Chiplet bör vara billigare att tillverka

Skrivet av ottoblom:

Ja det är därför man tar alla nackdelar med och bryta ut delar av kretsen . Det är mycket billigare

Skrivet av ottoblom:

Fast det handlar om wafers och kostnaden för den . En 4nm Wafers kostar mycket mer kontra 5 nm . för att inte tala om 6 nm som är en förfining av den åldrade 7 nm även om den säkert kostar 15 % mer än 7 nm .Sen du tjänar inte ett skit på och krympa en 256 mb buss . det blir samma antal per wafer oavsett 10 nm eller 5 nm

Skrivet av ipac:

Fast du har ingen aning vilket förhållande det är, för specifikt 4080, mellan BOM+Mfg och slutpris mot kund så nonsensbiten är jag rädd att du står bäst för själv.

Faktum kvarstår, det åtgår en ansenlig mängd "assets" för att sätta ihop ett XTX varför det inte är självklart att ett sådant kort är billigare än just 4080. Att hänga upp sig på "men chiplet är billigt" duger inte.

Skrivet av ipac:

Nej det handlar om kostnaden för ett helt kort.

Och fortfarande, det är inte N4 noden vi pratar om. Men ja, en custom N5 är troligt dyrare än en vanilla N5. Det har vi redan konstaterat.

Skrivet av ipac:

Erm, Custom N5. Inte att förväxla med N4. Jag är ledsen.

Möjligt att det denna custom-variant kostar mer men å andra sidan så slänger AMD pengar på annat innan 7900XTX är klar så tyvärr är det troliga att AMD ändå betalar mer, eller iaf inte mindre.

RTX 4080:
379 mm2 die på custom N5 process ("4N"), 95% av kärnorna nyttjat.
8 minnesmoduler på 256 bit buss.

7900 XTX:
300 mm2 die på N5 process, 100% av kärnorna nyttjat.
+ 222 (6 * 37) mm2 die på N6 process, 100% nyttjat.
+ chiplet montering
12 minnesmoduler på 384 bit buss

Höll på att skriva ut detta, men du @ipac slog huvudet på spiken.

Det råder inga som helst tvivel om att Navi 31 är dyrare än AD103 att tillverka och då talar vi bara GPU:n. Det är inte mycket som skiljer 5 mot 4 nanometer, och de tillverkas på samma fabrikslina. Samma gäller 7 och 6 nanometer. Fler minnesmoduler (+50%) är också en ganska stor merkostnad (uppskattningsvis 10–15 dollar per GB) man ska ha i beaktning.

Det här leder oss till vad du skrev i ett tidigare inlägg – i slutändan handlar det om total BOM för ett helt grafikkort, man ska inte stirra sig blind på bara GPU:n. Men oavsett vilket perspektiv man har ligger AMD med Navi 31 högre än Nvidias AD103 kostnadsmässigt.

AMD Radeon RX 7900 XTX och RX 7900 XT kan inte vara annat än dyrare totalt sett och det med stor marginal. Med det sagt är det möjligt, om inte garanterat då AMD till slut landade i den här designen, att Navi 31 hade varit ännu dyrare för AMD om de kört en monolitisk approach. Den ena partens arkitektur är helt enkelt mer effektiv och kan säljas med högre marginal.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Skrivet av Jacob:

Höll på att skriva ut detta, men du @ipac slog huvudet på spiken.

Det råder inga som helst tvivel om att Navi 31 är dyrare än AD103 att tillverka och då talar vi bara GPU:n. Det är inte mycket som skiljer 5 mot 4 nanometer, och de tillverkas på samma fabrikslina. Samma gäller 7 och 6 nanometer. Fler minnesmoduler (+50%) är också en ganska stor merkostnad (uppskattningsvis 10–15 dollar per GB) man ska ha i beaktning.

Det här leder oss till vad du skrev i ett tidigare inlägg – i slutändan handlar det om total BOM för ett helt grafikkort, man ska inte stirra sig blind på bara GPU:n. Men oavsett vilket perspektiv man har ligger AMD med Navi 31 högre än Nvidias AD103 kostnadsmässigt.

AMD Radeon RX 7900 XTX och RX 7900 XT kan inte vara annat än dyrare totalt sett och det med stor marginal. Med det sagt är det möjligt, om inte garanterat då AMD till slut landade i den här designen, att Navi 31 hade varit ännu dyrare för AMD om de kört en monolitisk approach. Den ena partens arkitektur är helt enkelt mer effektiv och kan säljas med högre marginal.

Enligt allt jag hittat så har båda 500$/gpu kostnad i BOM.... Men allt är rykten och bro science

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Trollfabrik 🫶🏻
Skrivet av Swedishchef_90:

Enligt allt jag hittat så har båda 500$/gpu kostnad i BOM.... Men allt är rykten och bro science

Att GPU:n är dyrare och minnet (vars kapacitet är 50% högre) är dock ingen killgissning

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Skrivet av Jacob:

AMD Radeon RX 7900 XTX och RX 7900 XT kan inte vara annat än dyrare totalt sett och det med stor marginal.

Det kanske jobbigaste för AMD är att 4080 idag når upp till nästan samma rasterprestanda. Trots att Nvidia använder klart mindre "assets". 4864 Shader kärnor ijmf med 6144 (båda har numera dubbel FP-output per kärna så att Nvidia gillar att ange dubbla antalet ignoreras) och 2/3 så stort cache-minne och bussbredd.

Det för ju även med sig att den sämre energieffektiviteten inte borde komma som en överraskning.

Det är inte lika illa som på Pascsl vs Vega tiden men ändå, man hade hoppats på mer konkurrenskraft från de röda.

Permalänk
Medlem
Skrivet av Jacob:

Att GPU:n är dyrare och minnet (vars kapacitet är 50% högre) är dock ingen killgissning

Om BOM är samma för båda korten så spelar det ingen roll hur mycket minne det skiljer... Det är bara RnD påslaget och allt annat som skiljer

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av sesese:

Som du ser så har du endast 8 bit färgdjup på grund av att du väljer 144Hz. I 120Hz kan du kör med 10 bit färgdjup (ingen komprimering) Många pratar om att allt måste vara på max för att få så bra upplevelse som möjligt. Med ett Nvidiakort så tappar du kvalité när du kör spel snabbare än 120Hz i 4K

10-bit färgdjup är ju egentligen bara intressant om man ska köra HDR, och då får man bara ut 98 Hz med DP 1.4 om man inte kör med DSC-komprimering (240 Hz med DSC). Men utanför HDR så har vanliga användare ingen nytta av 10-bit färgdjup.

Citat från den artikeln: "Out of all of the things to base a buying decision on, the DisplayPort standard should be very far down on that list."

Permalänk
Medlem
Skrivet av Swedishchef_90:

Om BOM är samma för båda korten så spelar det ingen roll hur mycket minne det skiljer... Det är bara RnD påslaget och allt annat som skiljer

RnD och chiputveckling ryktas vara dyrare per chip än själva chipen vad jag hört

Permalänk
Medlem
Skrivet av murklor:

Lär vara samma för mig (också 15:02 för order och 25:e dec)
Kan ju se det från den ljusa sidan - kanske får en senare batch där dom bättrat coilwhine, lol.

Samma här, samma klockslag.

Hade nog kanske hunnit om jag inte fått upp inloggningsrutan vid första försöket trots att jag var inloggad och på råge på det lade fel kort i varukorgen då sidan ballade ur med SweC-loggan mitt i allt och stressen man hade. Förhoppningsvis får jag det innan slutet av januari åtminstone, annars så blir det nog fortsättningsvis Nvidia.

Coilwhine oroar mig inte då jag har tinnitus och inte bryr mig särskilt mycket om oväsen i hög Hz.

Det hade eller ska bli kul att testa AMD igen då senaste AMD-kortet jag hade var ett 7xxx-serie det med, jag var väldigt nöjd med det.

Visa signatur

Ryzen 5900X | 32GB G.Skill CL14 3866MT/s | 7900 XTX | Asus Strix X470-F

Permalänk
Medlem
Skrivet av Alphahanne:

Kör du F1 22 själv?

Jag har testat det, ja.

Permalänk
Medlem
Skrivet av sesese:

https://cdn.sweclockers.com/forum/bild/7648?l=eyJyZXNvdXJjZSI6IlwvZm9ydW1cL2JpbGRcLzc2NDgiLCJmaWx0ZXJzIjpbInQ9bGFyZ2UiXSwicGFyYW1zIjp7ImtleSI6IjQ2QUYxMUMwLTYyOTctNEE4Qy1COEU3LUMzMDM5OTJFNjc0NiJ9LCJrZXkiOiJkYjFjNzE0ZGQyYzEwNDViZTYzMThmZDA2YWVmYjE2NSJ9

Som du ser så har du endast 8 bit färgdjup på grund av att du väljer 144Hz. I 120Hz kan du kör med 10 bit färgdjup (ingen komprimering) Många pratar om att allt måste vara på max för att få så bra upplevelse som möjligt. Med ett Nvidiakort så tappar du kvalité när du kör spel snabbare än 120Hz i 4K

Vill du läsa på? https://www.digitaltrends.com/computing/displayport-2-1-big-d...

Man kan också t.ex. driva 3840x2160, 165 Hz 10-bit med DP 2.1 - Ja det är DSC men jag tror inte man kan se den komprimeringen?

Does DSC affect image quality?
People often ask this question, as well as: “does display stream compression affect image quality?.” The short answer is, no! VESA DSC is a visually lossless compression algorithm

Permalänk
Medlem
Skrivet av Nozomi:

DLSS 3 är ju dock rätt magiskt om man spelar i 30. Med DLSS 3 kan du få 60 istället.

*kliksphilip har en video om detta. Bättre flyt > 30 fps.

Precis som med DLSS 2. Problemet är att just DLSS 3 har en tendens att ge artefakter samt försämra bildkvalitén till den grad att det bara blir grynigt.

https://www.techspot.com/article/2546-dlss-3/

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av DasIch:

Jag har testat det, ja.

Det har inte jag ännu. F1 21 däremot har jag kört massor av och testat alla möjliga inställningar. Där var RT fullständigt menlöst, märkte ingen skillnad alls när jag körde race. Var tvungen att aktivt söka efter skillnader och kunde notera lite förändringar i vattenpölar under regn, annars var det inga skillnader jag kunde notera. Det enda jag faktiskt märkte var sämre prestanda.

Kanske det har blivit mer i F1 22 men ska undersöka när jag köpt det vid nästa 50% rabatt.

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Medlem
Skrivet av Xinpei:

Precis som med DLSS 2. Problemet är att just DLSS 3 har en tendens att ge artefakter samt försämra bildkvalitén till den grad att det bara blir grynigt.

https://www.techspot.com/article/2546-dlss-3/

Techspot Tim har ett väldigt känsligt öga för artefakter i DLSS3, och det må så vara. Men dom flesta skulle nog inte se denna grynighet när man spelar. Eller i alla fall inte tycka att det är värt halva frameraten för att få bort den lilla bildförlust som kan tänkas ske. Men det är upp till var och en.

Permalänk
Medlem

Man kan vara objektiv och ta in flera olika källor för hur dessa kort presterar. Här kan man läsa t.ex vilket jag tycker visar att AMD verkligen har lyckats med 79xx serien.

Men allt är som sagt objektivt, kortet har testats med Ryzen 9 5950X (vilket det var några som efterfrågade i tråden) och det är ett gediget test vad det verkar som, alla som ser enögt kan läsa testet, säger inte att ni har fel men visst är det skillnad från rigg till rigg.

Visa signatur

Har numera en Laptop från gigabyte.

Permalänk
Medlem

Tror ni att man kommer att se några XTX på Blocket till lite högre pris när de anländer om ett par dagar? Tänker själv att det kanske inte blir så denna gång då man i sådant fall börjar att närma sig 4080-priser och därmed kanske köper ett sådant hellre.

Permalänk
Trollfabrik 🫶🏻
Skrivet av Swedishchef_90:

Om BOM är samma för båda korten så spelar det ingen roll hur mycket minne det skiljer... Det är bara RnD påslaget och allt annat som skiljer

Jag hävdar bestämt och på goda kvalificerade grunder att den ena har högre BOM. Men vi kommer nog inte längre här.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk

Verkar vara någon uppståndelse nu som börjat angående A0 revisonen på N31 som inte stödjer shader prefetch (sämre prestanda)

https://twitter.com/Kepler_L2/status/1603146626067046401

Permalänk
Medlem
Skrivet av TitanFrog:

Verkar vara någon uppståndelse nu som börjat angående A0 revisonen på N31 som inte stödjer shader prefetch (sämre prestanda)

https://twitter.com/Kepler_L2/status/1603146626067046401

Jag ser inget bevis för att AMD faktiskt sålt såna kort, tweetet hänvisar endast till kod som lades till för över 5 månader sedan och lär gälla ingenjörsexemplar.

Permalänk
Medlem
Skrivet av TitanFrog:

Verkar vara någon uppståndelse nu som börjat angående A0 revisonen på N31 som inte stödjer shader prefetch (sämre prestanda)

https://twitter.com/Kepler_L2/status/1603146626067046401

Trams, givetvis.

Visa signatur

Ryzen 5900X | 32GB G.Skill CL14 3866MT/s | 7900 XTX | Asus Strix X470-F