Intel: "Anpassade grafikarkitekturer ett dyrt misstag"

Permalänk
Melding Plague

Intel: "Anpassade grafikarkitekturer ett dyrt misstag"

Inför intåget på grafikkmarknaden sjösatte Intel en strategi med fyra Xe-arkitekturer optimerade för olika syften, något företaget bittert ångrar.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Jag tycker det är en frisk fläkt med att Intel är så öppen när de pratar Xe. T.ex. som här.

Permalänk
Datavetare

Är helt med på att en del gropar måste man få kliva själv för att fullt ut inse varför det är en så dålig idé.

Men givet att Nvidia, där Tom Peterson tidigare jobbade, tidigt lärde sig detta när de börja utveckla CUDA (programvaran) borde väl Intel bara utgått från att Nvidia visste vad de gjorde...

AMD hade ju en arkitektur över hela brädet, men de valde att splittra det i RDNA för grafik och CDNA för datacenter (den ska tydlige vara mer lik "gamla" GCN jämfört med RDNA).

Mycket möjligt att det gett viss utväxling på datacentersidan, men där ser man nog problemet med två separata designer för RDNA har än så länge inte nått nivån man tidigare hade i GPGPU-fall. Från att varit rejält konkurrenskraftig mot Nvidia där på konsumentprodukter under CGN-tiden är man nu ordentligt efter om man ställer på pappret likvärdiga GPU-modeller från respektive "lag" mot varandra i just GPGPU. Vissa rykten säger att Raja Koduri är betydligt bättre på GPGPU-delen än grafikdelen, kan det vara han som haft ett finger med i spelet för Xe också?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Snusfri

Sedan Pat tog över så har kulturen hos Intel ändrats mycket till det bättre.
De har blivit mycket mer öppna och ödmjuka.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av Yoshman:

Är helt med på att en del gropar måste man få kliva själv för att fullt ut inse varför det är en så dålig idé.

Men givet att Nvidia, där Tom Peterson tidigare jobbade, tidigt lärde sig detta när de börja utveckla CUDA (programvaran) borde väl Intel bara utgått från att Nvidia visste vad de gjorde...

AMD hade ju en arkitektur över hela brädet, men de valde att splittra det i RDNA för grafik och CDNA för datacenter (den ska tydlige vara mer lik "gamla" GCN jämfört med RDNA).

Mycket möjligt att det gett viss utväxling på datacentersidan, men där ser man nog problemet med två separata designer för RDNA har än så länge inte nått nivån man tidigare hade i GPGPU-fall. Från att varit rejält konkurrenskraftig mot Nvidia där på konsumentprodukter under CGN-tiden är man nu ordentligt efter om man ställer på pappret likvärdiga GPU-modeller från respektive "lag" mot varandra i just GPGPU. Vissa rykten säger att Raja Koduri är betydligt bättre på GPGPU-delen än grafikdelen, kan det vara han som haft ett finger med i spelet för Xe också?

Är inte en av de stora vinsterna för Nvidia just att Cuda går att köra på vanliga datorer hemma hos folk och inte kräver dedikerad hårdvara eller specifika chip? Det är ju ingen gigantisk uppoffring att välja Nvidia över andra grafikkort om man vill leka lite med Cuda. I så fall känns ju verkligen CDNA som ett stort steg i fel riktning om det är tillräckligt annorlunda för att gå att testa på med vanliga konsumentgrejer

Permalänk
Datavetare
Skrivet av medbor:

Är inte en av de stora vinsterna för Nvidia just att Cuda går att köra på vanliga datorer hemma hos folk och inte kräver dedikerad hårdvara eller specifika chip? Det är ju ingen gigantisk uppoffring att välja Nvidia över andra grafikkort om man vill leka lite med Cuda. I så fall känns ju verkligen CDNA som ett stort steg i fel riktning om det är tillräckligt annorlunda för att gå att testa på med vanliga konsumentgrejer

Det är mer än att CUDA bara går att köra på vanliga datorer. Det finns i.o.f.s. skillnader, som t.ex. att datacenter kretsarna kör HBM och därmed har mer bandbredd att leka med. Men det handlar ändå om samma mikroarkitektur över hela serien. Så på SM-nivå är det samma optimeringar som fungerar på ett RTX3050 som fungerar på deras fetaste datacenter krets.

Tror det var lite det Jensen refererade till när han dissade OneAPI rätt ordentligt. Det specifik han dissade var att Intel använder samma API för GPU som för CPU (SIMD) och FPGA.

Vet inte hur bra/dåligt det faktiskt fungerar att använda samma OneAPI kod för de tre olika segmenten. Inom olika segment verkar det ändå fungera, AVX-512/AMX optimeringar via OneAPI verkar fungera lysande för Sapphire Rapids (primärt för AI) samtidigt som det också fungerar väl för GPGPU i t.ex. Blender.

Givet vad Intel nu lärt sig verkar det vara lite: att bygga en API för tre olika produktsegment kanske fungerar, är ändå så att man kommer använda dessa för olika delar då de har olika styrkor. Men att lägga på en dimension för den komplexiteten så man även måste göra olika optimeringar inom GPGPU-segmetet + ovanpå det hantera 3D-grafik verkar putta det över rimlighetsgränsen.

AMD kör fortfarande samma API, man pushar sitt eget HIP allt mer. Men stödet för det verkar hela tiden släpa för RDNA jämfört med CDNA. Fördelen med deras variant är att man helt kan ignorera grafik för CDNA, så idéen är ju inte uppenbart galen!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Känner inte att jag har någon egentlig grund att bedöma deras beslut utifrån. Det är ju lockande att resonera typ "varför gör ni annorlunda än Nvidia?", men det är väl inte heller sådär särskilt sunt att ha som ingångsvärde.
Uppenbart har de lärt sig något under resans gång, som kanske i retrospekt känns som en onödigt dyr läxa. Men om insikten om *varför* inte fanns där från början var den kanske närmast oundviklig.

Det får väl åtminstone ses som ett sundhetstecken att kännas vid att man, utifrån det egna uttalandet, verkar ha gjort en ganska allvarlig felbedömning.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av evil penguin:

Känner inte att jag har någon egentlig grund att bedöma deras beslut utifrån. Det är ju lockande att resonera typ "varför gör ni annorlunda än Nvidia?", men det är väl inte heller sådär särskilt sunt att ha som ingångsvärde.
Uppenbart har de lärt sig något under resans gång, som kanske i retrospekt känns som en onödigt dyr läxa. Men om insikten om *varför* inte fanns där från början var den kanske närmast oundviklig.

Det får väl åtminstone ses som ett sundhetstecken att kännas vid att man, utifrån det egna uttalandet, verkar ha gjort en ganska allvarlig felbedömning.

Jag tror det ligger något i det Yoshman är inne på, GCN var väl inte riktigt en framgångssaga för AMD och man valde där att dela på det till RDNA och CDNA. Det är väl inte en allt för vild spekulation att Raja Koduri tog med sig sina erfarenheter från AMD och var en bidragande faktor till att Intel gick en liknande väg.

Skrivet av medbor:

Är inte en av de stora vinsterna för Nvidia just att Cuda går att köra på vanliga datorer hemma hos folk och inte kräver dedikerad hårdvara eller specifika chip?

Inte bara det, det har nog en hel del ekonomiska fördelar när det kommer till tillverkning och segmentering, färre modeller och högre volymer blir väl nästan viktigare än någosin när kretsutvecklingen är så pass dyr som den är.

Nvidia tar väl nästan 2000USD för A2, vilket är typ en halv GA107 (3050)...