AMD kan släppa första Radeon-korten med UDNA 2026

Permalänk
Datavetare

UDNA känns som helt rätt strategi. Splitten i RDNA och CDNA kanske gav lite enkla initiala vinster då det helt klart finns skillnad i fokus för beräkningskort och spelkort.

Men det lär ha blivit smärtsamt uppenbart hur dålig den strategin var när GPGPU tog fart rejält i samband med "AI-boomen".

En sak (av många saker) som gör CUDA så kraftfullt är att man lyckats skapa ett ramverk som fungerar på samma sätt oavsett om det är en Tegra-krets för inbyggda-system, ett GTX1030 eller RTX4090, eller ett datacenterkort.

AMD är väldigt framgångsrika med sina GPUer för superdatorer. Vad skiljer superdatorer från i stort sett alla andra system? En superdator är i praktiken så pass specialiserad att även programvaran i relativt stor utsträckning är skräddarsydd. I det läget är det ett mindre problem att behöva använda en API "ingen annan" använder.

För konsumenter och moltjänster vill man ha standardlösningar. För GPGPU är det närmaste man kommer något som liknar en (de-facto) standard just CUDA.

Lite trist att GPGPU utvecklats så här. Vi har nu tre st proprietära lösningar, CUDA, ROCm/HIP och Metal Compute som används för de mest populära GPU-lösningar för konsumenter.

Sen finns den öppna standarden, SyCL, som används av Intel, Qualcomm och Arm (Mali). Lite svårt att se varför AMD håller fast vid HIP så hårt, förutom i det här läget "sunken cost".

HIP är en CUDA-ripoff (så nära man vågar utan att ge Nvidia en rimligt chans att stämma), vilket i.o.f.s. gör det enklare att porta saker från CUDA men samtidigt ligger man alltid efter då man jagar ett rörligt mål. Och i det läget: varför inte använda originalet?

SyCL kan bli vettigt för långt mer när dess Vulkan backend blir mogen, i det läget går det att köra även på Nvidia/AMD (det går att köra på Nvidia och AMD redan idag, Nvidia-stödet gör Intel och AMD-stödet görs av universitet i Heidelberg, Tyskland).

Skrivet av Swedishchef_90:

Nej operating margin är väl utan RnD? Etc utan enbart kort material - > kort sålt för =mellanskillnaden

Gross margin har väl rnd med men det är inte specifikt för gaming utan bolag som helhet

Gross margin: (omsättning - direkta kostnader för produkter) / omsättning
Operating margin: (omsättning - (direkta kostnader för produkter + rörliga kostnader för att producera/sälja)) / omsättning

Så den senare är närmare "faktiskt kostnad", men den har fortfarande inte med fasta kostnader. Så är nog väldigt osannolikt att något med några få procent "operating margin" faktiskt går plus, man lär ju ha räntekostnader, lokalkostnader och andra fasta (fasta=deras storlek beror inte direkt på hur mycket man säljer).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Blir det de sedvanliga ryktena? 80-90% prestanda av Nvidias flaggskepp till 50% av priset?

Visa signatur

Core i9 12900K | RTX 3090 FE | Odyssey G80SD |

Permalänk
Medlem
Skrivet av Aka_The_Barf:

God morgon!
Ny dag, nya besvikelser!

AMD kommer nog stanna i mellan segmentet några år för att få användare. Misslyckas dom är det nog bara lägga ned grafikkortsavdelningen.

Det är ju i mellansegmentet de stora pengarna ligger, inte i att släppa ultradyra kort i toppsegmentet som färre än 1% av kunderna köper. Sedan har de ju hela konsollmarknaden i sitt grepp, de växer stort med sina APU:er, och de börjar även inta datacenter-marknaden. Så de är precis där de behöver vara för att växa och bli större. Sedan när de känner sig modiga med ny teknik så kanske de försöker utmana Nvidia igen (vilket jag hoppas för konkurrensens skull).

Permalänk
Medlem
Skrivet av mrpijey:

Det är ju i mellansegmentet de stora pengarna ligger, inte i att släppa ultradyra kort i toppsegmentet som färre än 1% av kunderna köper. Sedan har de ju hela konsollmarknaden i sitt grepp, de växer stort med sina APU:er, och de börjar även inta datacenter-marknaden. Så de är precis där de behöver vara för att växa och bli större. Sedan när de känner sig modiga med ny teknik så kanske de försöker utmana Nvidia igen (vilket jag hoppas för konkurrensens skull).

Ja precis vad jag skrev.

Visa signatur

Ryzen 9800X3D @ Stock, MSI Suprim X 3080 @ game mode.
YT kanal där jag meckar bilar: https://www.youtube.com/@saab900turboT16

Permalänk
Medlem
Skrivet av Sveklockarn:

Samtidigt är det ju väldigt många grafikkort de säljer till PC även om de inte har den största andelen användare, så jag tror inte man behöver måla fan på väggen. 🙂

Jag tror helt klart på deras strategi att satsa på volymförsäljning i mellansegmentet och stanna på marknaden eftersom deras framgångar i konsolvärlden bygger på samma GPU:er. Att de inte kan matcha Nvidias 80/90-suffix för tillfället kan ju inte vara något stort ekonomiskt problem med tanke på hur försvinnande liten andel totalt som går och köper modeller i den prisklassen.

AI-boomen som Nvidia rider på kommer inte vara för evigt heller antagligen, framförallt inte den dag när alla boomers som badar Nvidia i pengar utan att veta vad AI gör börjar upptäcka hur mycket av pengarna som de aldrig tjänar igen.

Fast just nu matchar de 4080, men 4090 är en klass för sig och är väldigt väldigt dyr.

Permalänk
Medlem
Skrivet av Yoshman:

Sen finns den öppna standarden, SyCL, som används av Intel, Qualcomm och Arm (Mali). Lite svårt att se varför AMD håller fast vid HIP så hårt, förutom i det här läget "sunken cost".

Lustigt att du säger det, senaste åren har det tagits upp om och om igen på forumet att AMD aldrig kommer komma någonvart om de inte börjar snickra på något i stil med CUDA på riktigt. Å ena sidan kan de aldrig konkurrera med CUDA så klart, å andra sidan måste de ju konkurrera med CUDA, så klart

Skrivet av Yoshman:

Gross margin: (omsättning - direkta kostnader för produkter) / omsättning
Operating margin: (omsättning - (direkta kostnader för produkter + rörliga kostnader för att producera/sälja)) / omsättning

Så den senare är närmare "faktiskt kostnad", men den har fortfarande inte med fasta kostnader. Så är nog väldigt osannolikt att något med några få procent "operating margin" faktiskt går plus, man lär ju ha räntekostnader, lokalkostnader och andra fasta (fasta=deras storlek beror inte direkt på hur mycket man säljer).

Yup, det var en dålig kvartalsrapport för gaming och tvivlar på att de går något faktiskt plus. Men grejen med indirekta kostnader och sådant här, särskilt när man börjar snacka om R&D, är att det är som jag nämnt tidigare i tråden svårt att säga säkert vad arbetet som görs i gamingsegmentet är värt för deras R&D rent generellt, helt oavsett vad de får betalt för enheter sålda. Det är ju inte ovanligt att företag går plus starkt på nyförsäljning men har det värre på aftermarket och rent utav backar på service osv, nu är det en annan sorts business men gissar att det finns mer värde i det hela än ren profit, men folk tenderar att glömma att snabbaste sättet att maxxa profit är att säga upp alla och sälja allt, men det är inte rätt väg om man faktiskt vill få något gjort.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Silles:

Fast just nu matchar de 4080, men 4090 är en klass för sig och är väldigt väldigt dyr.

My bad, jag är otillräckligt påläst.

Permalänk
Datavetare
Skrivet av Shiprat:

Lustigt att du säger det, senaste åren har det tagits upp om och om igen på forumet att AMD aldrig kommer komma någonvart om de inte börjar snickra på något i stil med CUDA på riktigt. Å ena sidan kan de aldrig konkurrera med CUDA så klart, å andra sidan måste de ju konkurrera med CUDA, så klart

Det råder väl inget tvivel om att "alla" som tillverkar en GPU idag måste lura ut ett strategi för att konkurrera med Nvidia.

Men givet hur brutalt lång före Nvidia är alla andra i marknadsandel kan man ju kanske ställa frågan hur vettigt det är att försöka konkurrera med en egen proprietär teknik. Proprietär teknik kan helt klart ha fördelar, om man är tillräckligt stor och har resurserna att driva det hela.

OpenCL fallerade för att det var en allt för dålig lösning jämfört med CUDA. Men fördelen med OpenCL var ändå att det hade halvhyfsat stöd då det länge var CUDA och OpenCL. SyCL är till skillnad från OpenCL faktiskt bättre än CUDA på vissa områden, plus att det är en öppen standard där alla i god tid kan förbereda sig på tillägg i nya versioner.

HIP har två huvudsakliga problem. Första är att det "by-design" ligger väldigt nära CUDA, vilket gör att man hela tiden blir reaktiv istället för proaktiv. Andra är att den stora nackdelen med en proprietär API är att det hamnar på en själv att lägga in stöd överallt där man önskar stöd. Här har AMD inte gjort ett bra jobb med HIP, men var den som först pushde hetrogena system men är idag långt ifrån någon ledare inom området.

Nvidia och Apple har långt bättre GPGPU-stöd i olika ramverk och bibliotek, till och med Intel har ett bredare stöd idag. Länge saknades helt GPGPU stöd för konsument Radeon i t.ex. PyTorch och TensorFlow. Stödet för GPGPU i Blender är inte alls lika komplett som för CUDA och Metal, etc.

Det som gör det än märkligare att AMD helt vägrar SyCL för GPUer är att sedan något år tillbaka äger Xilinx och de var väldigt tidigt ute med SyCL stöd för deras FPGAer. Apple kan lite "skylla" på att Metal är skrivet primärt för Swift (iOS/MacOS är rent generellt idag Swift-native) medan CUDA och SyCL är designade för C++, men HIP är ju också C++ (fördelen med SyCL över CUDA är att den förra är ISO C++ kompatibel medan CUDA är proprietära utökningar).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer