Arc Pro B60 Dual – dubbla GPU-kretsar, 48 GB minne

Permalänk
Melding Plague

Arc Pro B60 Dual – dubbla GPU-kretsar, 48 GB minne

Ryktena stämde och Intel har nu lanserat biffigare Battlemage-kort.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Så det ”gör ingen större skillnad för AI-utveckling och för spel hjälper det inte alls” så vad är poängen då?

Permalänk
Medlem
Skrivet av Syltmunken:

Så det ”gör ingen större skillnad för AI-utveckling och för spel hjälper det inte alls” så vad är poängen då?

Tanken är nog att du kan klämma in flera "kort" i samma maskin.
T.ex. så kan du ju få "2" st på ett ITX moderkort.

Men nog hade det varit mer intressant om dom bara släppt en variant med en GPU och 48GB minne.

Permalänk
Medlem
Skrivet av Syltmunken:

Så det ”gör ingen större skillnad för AI-utveckling och för spel hjälper det inte alls” så vad är poängen då?

Texten är nu ändrad för att tydligare visa att AI-mjukvara redan kan utnyttja flera grafikkort samtidigt.

Permalänk
Medlem

Rage fury MAXX!!! Fast inte lika kul.

Dual gpu har alltid varit spännande för mig. Minns när dx12 va nytt, då snackades det om att man skulle kunna kombinera gpuer av olika slag och att de då skulle rendera olika delar sömlöst eller vad det nu var? Rent tekniskt är det ju svårt att implementera men vore skitkul.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Gaminglaptop. 13700H, 32Gb RAM, RTX 4070, 4Tb SSD.

Permalänk
Medlem

Oj, detta blir spännande! Hoppas det lägger press på AMD och Nvidia att släppa fler kort med mycket minne som inte kostar skjortan.

Visa signatur

Dator: Ja
Telefon: Ja

Permalänk
Medlem
Citat:

För vissa arbetsuppgifter, som AI-utveckling, gör det ingen större skillnad då mjukvaran redan kan utnyttja flera anslutna grafikkort, men för till exempel spel hjälper det inte alls.

Mitt grafikkort är uppdelat i sjuttioelvatusen delar och det är ganska trevligt då jag och frugan kan spela olika spel på "olika datorer" med samma grafikkort, så på så vis är det ju användbart för spelande.

Permalänk
Medlem

Kan man virtualisera och sätta 1 grafikkort på en virtuell dator och andra grafikkortet på andra datorn?

Visa signatur

5700x3D | RTX 3080 | 2 TB M.2 | 32 GB RAM

Permalänk
Medlem
Skrivet av FX9:

Kan man virtualisera och sätta 1 grafikkort på en virtuell dator och andra grafikkortet på andra datorn?

Det går att skapa en gpu pool på det sättet men de metoder jag känner till är knutna till specifka applikationer som t.ex grafik behandling. Antar att det finns lösningar med t.ex docker swarm men om du tänker på gaming så tror jag inte det går.

Visa signatur

Fractal Design Define R6, ASUS X99a, Xeon E5-2697v3@3.5Ghz allcore, 64gb Hynix ECC REG 2133Mhz, 7900xt, 2.5gb nic

Server: Proxmox med OMV7, Teuenas och annat virtuellt: Supermicro X9SRH-7F, 64gb RAM, Xeon 2651v2, 4x10tb, 2.5gb Nic

Permalänk
Medlem
Skrivet av FX9:

Kan man virtualisera och sätta 1 grafikkort på en virtuell dator och andra grafikkortet på andra datorn?

Det borde borde ju i teorin gå då datorn ser dessa som 2st separata kort.

Visa signatur

Main
MOBO: Gigabyte B550M DS3H, CPU: AMD Ryzen 5 5600, RAM: 2x16B @ 3600MHz, GPU: ASUS TUF Gaming RX7800XT, SSD: WD BLACK SN750 SE 1TB nVME, 2x1TB Sata SSD, Chassi : Fractal Design Node 804, PSU: Corsair RM1000e, Skärm: Philips 27M1N3500LS.

Spare/kontor
MOBO: MSI Z95 Gaming 5, CPU: Intel Core I5 4790K @ 4.5GHz, RAM: 4x8GBB @ 1600MHz, GPU: Sapphire RX 5700 (Flashat till XT), SSD: totalt 2TB S-ata, Chassi : Corsair 300 (Nånting), PSU: Coolermaster 750Watt, Skärm: Philips 34" Curved 100Hz

Permalänk
Medlem
Skrivet av JBerger:

Mitt grafikkort är uppdelat i sjuttioelvatusen delar och det är ganska trevligt då jag och frugan kan spela olika spel på "olika datorer" med samma grafikkort, så på så vis är det ju användbart för spelande.

Ja, men antar du inte kör Intel gpu? Nvidia har det bästa stödet men vgpu fungerar inte på alla modeller. Kör så med två Tesla P7, fungerar fantastiskt. Men consumer gpus går inte att dela upp få iaf Nvidia tagit bort den funktionen i drivers. Amd är krångligt å Intel känner jag inte till men när detta kort kommer ut så har Intel garanterat allt på plats.

Visa signatur

Fractal Design Define R6, ASUS X99a, Xeon E5-2697v3@3.5Ghz allcore, 64gb Hynix ECC REG 2133Mhz, 7900xt, 2.5gb nic

Server: Proxmox med OMV7, Teuenas och annat virtuellt: Supermicro X9SRH-7F, 64gb RAM, Xeon 2651v2, 4x10tb, 2.5gb Nic

Permalänk
Medlem
Skrivet av serverfel:

Rage fury MAXX!!! Fast inte lika kul.

Dual gpu har alltid varit spännande för mig. Minns när dx12 va nytt, då snackades det om att man skulle kunna kombinera gpuer av olika slag och att de då skulle rendera olika delar sömlöst eller vad det nu var? Rent tekniskt är det ju svårt att implementera men vore skitkul.

Det var en diskussion jag hade glömt.

Visa signatur

It’s more fun to compute.

Permalänk
Medlem
Skrivet av Svensktiger:

Tanken är nog att du kan klämma in flera "kort" i samma maskin.
T.ex. så kan du ju få "2" st på ett ITX moderkort.

Men nog hade det varit mer intressant om dom bara släppt en variant med en GPU och 48GB minne.

Vad författaren också menar å beskriver är att pci-e bandbredd inte är kritiskt för AI. Detta kort kör 2x gpu på var sin x8 lane i en x16 slot kort. Detta görs med en slags emulering/switch som splitter till var och en av gpu cores på kortet. Pci-e speed är kritisk för gaming men inte för AI men versionen av pci-e har mindre att säga. Detta har testats mycket (sök) t.ex pci-e 3 vs 5. Set finns t.ex pci-e x1 grafikkort men de är starkt begränsade å är mest till enkla desktop miljöer.

Visa signatur

Fractal Design Define R6, ASUS X99a, Xeon E5-2697v3@3.5Ghz allcore, 64gb Hynix ECC REG 2133Mhz, 7900xt, 2.5gb nic

Server: Proxmox med OMV7, Teuenas och annat virtuellt: Supermicro X9SRH-7F, 64gb RAM, Xeon 2651v2, 4x10tb, 2.5gb Nic

Permalänk
Medlem

Så, det är ett beräkningskort med två GPUer och man kan köra upp till åtta sådana kort paralellt.
Tror att Arc Pro är Intels egentliga syfte för att ge sig in i GPU-marknaden.

Hoppas de går ihop med AMD och skapar en öppen standard som kan konkurera med Nvidias CUDA.
Men det är nog att hoppas på lite väl mycket....

Permalänk
Medlem

Kanske att man får in stora språk modeller på 48GB om det inte är så att man bara kommer åt 24GB per kort.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av Herr Kantarell:

Kanske att man får in stora språk modeller på 48GB om det inte är så att man bara kommer åt 24GB per kort.

I Ollama så är programvaran så pass smart att den automatiskt delar uppgifterna på flera kort. Men inte så pass smart att det kan hantera kort med olika prestanda, men har man flera exakt likadana kort, så är det väl det ingen issue såklart.
Så, jag tror att en 48GB-modell delas så att vardera kort får ta sina 24GB.

Det är min uppfattning iaf, men jag har säkert fel.

Visa signatur

// men vad vet jag, fråga en expert istället

Permalänk
Medlem

Linus har redan pratat om detta, tex Deepseek ocu Ollama kan båda använda allt tillgängligt GPU-minne, eftersom du kan köra fyra stycken dubbelkort(eller 8 st enkelkort) så får du 192GB grafikminne att leka med för din AI-modell. Detta räcker för att köra toppversionen av Deepseek lokalt på bara en PC vilket faktiskt är imponerande.

Lär bli bra mycket billigare än att köpa åtta stycken Mac Pro och klustra.

Visa signatur

9950X3D X870E HERO 96/6400c30/2200 RTX5090 Gaming OC || 7950X B650 Gaming Plus WIFI 32/6000c30 RTX5080 TUF OC(450w) UBUNTU || 12900KF Z690 Tomahawk WIFI 64/3600c16 Gear1 RTX4080 Ventus 3X OC(400W) || 5900X(B2) B550-F 32/3800c18 RTX3080 TUF OC V2 || 5800X3D CH VIII EXT. 32/3800c18 RTX3080 Gaming OC || 3700X X570 HERO 32/3000c16 RTX3070 FTW3 Ultra || Thinkpad P16s G2 PRO7840U 32/6400

Permalänk
Medlem

Bara jag som tycker att GPU börjar bli ett väldigt urvattnat begrepp? Verkar ju som man klämmer in mer och mer funktioner och kretsar som gör allt annat än bearbetar grafik. Såvida inte G:et numera står för "Generic".

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | DELL P991 Trinitron | Windows XP/10 Dual-Boot |

Permalänk
Skrivet av Alexraptor:

Bara jag som tycker att GPU börjar bli ett väldigt urvattnat begrepp? Verkar ju som man klämmer in mer och mer funktioner och kretsar som gör allt annat än bearbetar grafik. Såvida inte G:et numera står för "Generic".

Numera pratas det om GPGPU vilket är precis vad du pratar om.

Permalänk
Medlem
Skrivet av Gnarf:

Ja, men antar du inte kör Intel gpu? Nvidia har det bästa stödet men vgpu fungerar inte på alla modeller. Kör så med två Tesla P7, fungerar fantastiskt. Men consumer gpus går inte att dela upp få iaf Nvidia tagit bort den funktionen i drivers. Amd är krångligt å Intel känner jag inte till men när detta kort kommer ut så har Intel garanterat allt på plats.

Nej, jag kör nvidia, däremot en consumer gpu (2070super). Fungerar finfint. Sedan visst, det hade ju varit trevligt om tillverkarna slutade motverka kunderna för att tvinga in dem till att köpa Tesla P7 eller fancy-pancy kort för många miljarder å låt oss hemanvändare få partitionera upp våra GPUer som standard utan att behöva trixa lite.

Permalänk
Skrivet av JBerger:

Mitt grafikkort är uppdelat i sjuttioelvatusen delar och det är ganska trevligt då jag och frugan kan spela olika spel på "olika datorer" med samma grafikkort, så på så vis är det ju användbart för spelande.

Intressant!

Berätta gärna mer om din setup. 😀

Permalänk
Medlem
Skrivet av Snekutaren:

Intressant!

Berätta gärna mer om din setup. 😀

(Youtube) Two Gamers, One GPU from your Windows PC! Hyper-V Paravirtualization Build and Tutorial

Permalänk
Medlem
Skrivet av FX9:

Kan man virtualisera och sätta 1 grafikkort på en virtuell dator och andra grafikkortet på andra datorn?

Japp, det går.

Permalänk

Hej Jeff...

"Det är som att fråga en kock om hans bästa recept och få en bild på en färdig maträtt – inspirerande, men knappast användbart."

Visa signatur

on the internet since 1993
[ Geek - Dad - Programmer - RC enthusiast - Technology evangelist ]

Basically, you’re the guy who survived the shipwreck because you had a lifeboat, and now you’re standing on the shore telling the people still drowning that the ocean isn’t that bad.

Permalänk
Medlem
Skrivet av emigrating:

Hej Jeff...

"Det är som att fråga en kock om hans bästa recept och få en bild på en färdig maträtt – inspirerande, men knappast användbart."

Förstår inte vad du vill ha sagt..? Vill du att jag ska skriva exakt hur man gör? Han går ju igenom tydligt i videon vad du behöver göra? Eller är du så bortskämd att du vill att jag ska summera videon åt dig i en steg-för-steg förklaring för du inte orkar titta på videon?

Permalänk
Medlem
Skrivet av Ingetledigtnamn:

Numera pratas det om GPGPU vilket är precis vad du pratar om.

GPGPU har vi hört om sedan början av 2010 talet om inte tidigare. Var väl en rad om det på en viss julskiva vill jag minnas

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Skrivet av NodCommander:

GPGPU har vi hört om sedan början av 2010 talet om inte tidigare. Var väl en rad om det på en viss julskiva vill jag minnas

Jo, början av 2000-talet till och med, men jag vet inte om den infon hade inte hjälpt Alex.

Permalänk
Medlem
Skrivet av serverfel:

Rage fury MAXX!!! Fast inte lika kul.

Dual gpu har alltid varit spännande för mig. Minns när dx12 va nytt, då snackades det om att man skulle kunna kombinera gpuer av olika slag och att de då skulle rendera olika delar sömlöst eller vad det nu var? Rent tekniskt är det ju svårt att implementera men vore skitkul.

Jag kommer ihåg så väl när World of Warcraft gick från DX9.0c till DX11.
Var under Wrath of the lich king senare hälft kort efter Zul'Aman och Zul'Gurub had tillkommit.
var lite shockartat att see marken gå från totalt platta 2D stenar, Grenar och träbalkar till 3D med ställbart djup.
Var inte lite krasher de första dagarna om man säger som så hehe.

Visa signatur

En Planka med Ryzen 5950X gör nu fler saker än vad mina tidigare (I7-4790K+i7-860) Gjorde tillsammans och jag kan samtidigt spela utan problem.

Teknisk utveckling är väldigt roligt!

Permalänk
Medlem
Skrivet av Hellscreame:

Jag kommer ihåg så väl när World of Warcraft gick från DX9.0c till DX11.
Var under Wrath of the lich king senare hälft kort efter Zul'Aman och Zul'Gurub had tillkommit.
var lite shockartat att see marken gå från totalt platta 2D stenar, Grenar och träbalkar till 3D med ställbart djup.
Var inte lite krasher de första dagarna om man säger som så hehe.

Zul'aman kom i BC. Zul'gurub kom i vanilla.

Visa signatur

Its not about power, its about balance

Permalänk
Medlem
Skrivet av Edlife:

Zul'aman kom i BC. Zul'gurub kom i vanilla.

Samt jag har heller inga minnen av att nånting ändrade geometrin i samband med byte till DX11.
Vet du om det finns några bevis för det?

Visa signatur

5700x3D | RTX 3080 | 2 TB M.2 | 32 GB RAM