Intel "Sapphire Rapids" integrerar HBM-minne

Permalänk
Melding Plague

Intel "Sapphire Rapids" integrerar HBM-minne

I jakt på högre bandbredd förklarar Intel att processorfamiljen "Sapphire Rapids" får HBM-minne under huven, vid sidan av PCI Express 5.0 och DDR5.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Ska bli intressant att läsa tester och genomgång av hur tekniken fungerar i verkligheten. Det är väldigt mycket ”ska komma” just nu men vi är säkert många som väntar på att marknaden ska lösa utbud så att vi kan bygga igen utan hutlösa priser.

Visa signatur

There is more stupidity than hydrogen in the universe, and it has a longer shelf life. /Frank Zappa

Permalänk

Blir garanterat skitsnabbt och skitdyrt.

Permalänk
Medlem
Skrivet av JonkenPonken:

Blir garanterat skitsnabbt och skitdyrt.

Bara skit alltså? Nä men jag tror du slog huvudet på spiken där

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
Datavetare

Mumma för cryptominers kanske? Rent logiskt finns det inga hinder att gräva Ethereum (och liknande) med CPU, rent praktiskt blir prestanda väldigt dålig då den familjen av algoritmer är specifikt designade för att kräva brutalt med bandbredd mot RAM på ett sätt som gör det hopplöst för en "normal" cache att göra någon relevant nytta.

Så versionen Sapphire Rapids av HBM kanske blir Ethereum Rapids... Jackpot för de som varken gillar Intel eller kryptovaluta då det eventuellt minskar trycket på GPUer?

Lite mer seriöst känns det som "alla" riktigt går all-in på maskininlärning. Verkar som man fortfarande söker efter de mest optimala lösningarna och kanske blir så att det inte finns en "bästa" lösning, utan det kommer variera för olika problemtyper (där alla har gemensamt att de i botten bygger på maskininlärning).

CPU+SIMD verkar vara optimalt för inferens och fall där låga svarstider är viktigast. GPGPU/ASIC är optimalt för träning och fall där modellerna är så stora och har så låg rums/tids-lokalitet att de måste ha riktigt hög bandbredd mot RAM (vilket är fallet Intel verkar ge sig på med Sapphire Rapids+HBM). Sedan finns NPU för mobiler och bärbara som är optimerade för maximal perf/W.

För egen del finns en specifik sak i Sapphire Rapids som jag verkligen ser fram emot: CXL stöd! Är övertygad att CXL kommer lyfta nivån för heterogena system minst ett pinnhål, d.v.s. allt fler krävande uppgifter kan enklare/mer effektivt utföras av specialdesignat kisel som befinner sig på PCIe-instickskort.

Nog lägre för Intel att verkligen pusha hårt för OneAPI och SYCL. Annars kommer CXL ge Nvidia ännu mer boost tack vare deras totaldominans runt GPGPU via CUDA. OneAPI ser ändå ut att ha rejält med potential!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Måttband:

Ska bli intressant att läsa tester och genomgång av hur tekniken fungerar i verkligheten. Det är väldigt mycket ”ska komma” just nu men vi är säkert många som väntar på att marknaden ska lösa utbud så att vi kan bygga igen utan hutlösa priser.

Ja, det känns som att Intel släpper väldigt mycket nyheter om vad som komma skall eftersom dom i stort sett inte haft någonting att komma med senaste dryga året och inte kommer ha inom den närmsta framtiden heller.
Så gäller att hålla snacket igång med att dom kommer med intressanta saker SNART!

Permalänk
Medlem

Hoppas att det blir relativt enkelt för utvecklare att implementera och använda denna interna minnesmängd. Även att utvecklare får den exakta infon tidigt så att de kan vara redo när dessa processorer släps. Tänker då mest på simuleringsmjukvara.

Permalänk
Medlem
Skrivet av Yoshman:

Mumma för cryptominers kanske? Rent logiskt finns det inga hinder att gräva Ethereum (och liknande) med CPU, rent praktiskt blir prestanda väldigt dålig då den familjen av algoritmer är specifikt designade för att kräva brutalt med bandbredd mot RAM på ett sätt som gör det hopplöst för en "normal" cache att göra någon relevant nytta.

Så versionen Sapphire Rapids av HBM kanske blir Ethereum Rapids... Jackpot för de som varken gillar Intel eller kryptovaluta då det eventuellt minskar trycket på GPUer?

Lite mer seriöst känns det som "alla" riktigt går all-in på maskininlärning. Verkar som man fortfarande söker efter de mest optimala lösningarna och kanske blir så att det inte finns en "bästa" lösning, utan det kommer variera för olika problemtyper (där alla har gemensamt att de i botten bygger på maskininlärning).

CPU+SIMD verkar vara optimalt för inferens och fall där låga svarstider är viktigast. GPGPU/ASIC är optimalt för träning och fall där modellerna är så stora och har så låg rums/tids-lokalitet att de måste ha riktigt hög bandbredd mot RAM (vilket är fallet Intel verkar ge sig på med Sapphire Rapids+HBM). Sedan finns NPU för mobiler och bärbara som är optimerade för maximal perf/W.

För egen del finns en specifik sak i Sapphire Rapids som jag verkligen ser fram emot: CXL stöd! Är övertygad att CXL kommer lyfta nivån för heterogena system minst ett pinnhål, d.v.s. allt fler krävande uppgifter kan enklare/mer effektivt utföras av specialdesignat kisel som befinner sig på PCIe-instickskort.

Nog lägre för Intel att verkligen pusha hårt för OneAPI och SYCL. Annars kommer CXL ge Nvidia ännu mer boost tack vare deras totaldominans runt GPGPU via CUDA. OneAPI ser ändå ut att ha rejält med potential!

Men visst är det väl så med HMB/GDDR att latenserna är ganska kassa? Känns nästan som att detta kommer närma sin NUMA-territorium?

Permalänk
Medlem

Både techtechpotato och adored har lagt upp lite videos kring detta
Verkar som att die size för en "vanlig" 56 core Sapphire Rapids hamnar strax under 1500 mm^2 och att HBM varianten som ser ut att bli en annan socket(?) och blir större i längden än den vanliga.

Permalänk
Medlem
Skrivet av HappyPie:

Både techtechpotato och adored har lagt upp lite videos kring detta
Verkar som att die size för en "vanlig" 56 core Sapphire Rapids hamnar strax under 1500 mm^2 och att HBM varianten som ser ut att bli en annan socket(?) och blir större i längden än den vanliga.

https://www.youtube.com/watch?v=PkWIk2JRrXk

https://www.youtube.com/watch?v=dDGJIqIWdcU

Så konstigt att han är tillbaka igen (Jim)

Permalänk
Medlem
Skrivet av medbor:

Så konstigt att han är tillbaka igen (Jim)

ibland kan de vara bra att ta ett sabbatsår testa!

Permalänk
Medlem
Skrivet av HappyPie:

ibland kan de vara bra att ta ett sabbatsår testa!

Jag unnar honom det, men han var så klar och missnöjd med branchen och allt annat... trodde inte på en tillbakakomst