AMD kan bygga NPU-instickskort

Permalänk
Melding Plague

AMD kan bygga NPU-instickskort

Ett separat ”AI-kort” kan frigöra resurser från grafikkort och processor.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Äntligen, hoppas npu börjar släppas snart.

Permalänk
Medlem

inte aktuellt för SoC's. för där delar CPU+GPU redan på NPU'n

Permalänk
Medlem

Först tänkte jag att va bra, då kan vi säkert slänga på RT/PT på det kortet med.
Men det vore skitdåligt då det kommer bli dyrare, hur länge kommer kortet vara aktuellt?, blir det kort med olika standarder? osv.

Visa signatur

CPU: I9 10900KF -Kylare: Arctic Freezer 360 - Moderkort: ASRock Velozita Z590 PG.
GPU: RX 9070 XT Reaper @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3466 MHz Ballistix Elite. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Asus TUF 1000w Gold Atx 3.1. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Dessa är nog inte riktade mot persondatorer. Gissar bilar/IOT/servrar.

Permalänk
Medlem
Skrivet av str8forthakill:

Dessa är nog inte riktade mot persondatorer. Gissar bilar/IOT/servrar.

I artikeln låter det uttryckligen som att det handlar om PC-prylar

"Tikoo made the comments as OEMs like Lenovo, Dell Technologies and HP Inc. start to explore discrete NPUs and other kinds of dedicated accelerator chips as alternatives to GPUs in PCs for AI workloads. Dell, for instance, last month announced that it would use an NPU-based Qualcomm AI 100 PC inference card inside a new Dell Pro Max Plus laptop."

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem

Problemet är väl storleken på arbetsminne, tror inte ett kort med 128 GB RAM blir särskilt billigt. Men i och för sig så är själva minnesmodulerna biliga, så om dom tillverkar NPUn på säg 7 nm och gör kretsen stor så kan dom få ned förbrukningen utan att betala höga priser för 5 nm litografi (vars fabriker är follbokade) när 7 nm räcker om man sänker frekvensen.

Istället blir ju problemet att man endast kan använda gamla eller komprimerade LLMs eller maskininlärning, vilka har dålig prestanda och ger betydligt fler fel. 512-1024 GB RAM är allt för dyrt för att någon konsument skulle ha råd med de.

Tillägg
Permalänk

Plugin kort att kunna addera deras FSR4/Frame gen teknik även för äldre kort utan stödda hårdvaran för det?

ser det som ett försök att redeama deras tapp att hålla tekniken universal och fungerande oavsett hårdvara.

Visa signatur

ASUS B550-f-Gaming, R9 5800X3D, HyperX 3200Mhz cl16 128Gb ram, rtx 3070ti.
[Lista] De bästa gratisprogrammen för Windows
[Diskussion] De bästa gratisprogrammen för Windows

Permalänk
Medlem

FisX?

Permalänk
Medlem

Är lite förvånad över att vi inte har mer renodlade AI-kretsar från AMD eller nVidia än vad vi har. Även beräkningskort utan ROPs har fortfarande en väldig massa overhead för att bara användas för tensor/matrix-beräkningar.

Permalänk
Medlem
Citat:

AMD för diskussioner med kunder för att ta reda på vad deras önskemål är och vad ett ”AI-kort” behöver för att bli användbart.

AMD talar här om instickskort för vanliga datorer som till exempel kan köra stora språkmodeller och andra krävande algoritmer lokalt istället för att skicka data till någon server i molnet.

Jag undrar om kan kör AI tillämpningar, hur viktigt är snabbt minne jämfört med mycket minne ?

Om det eventuellt hade varit en ide att ha ett AI kort med egna DDR5 minnesplatser?
Så man kan ha mycket minne men billigare och långsammare minne än vad som sitter på grafikkorten.

Eller behöver man hundratals GB/s bandbredd ?
Om kortet exempelvis har 4 kanaler DDR5 istället för bara 2 kanaler som vanliga persondatorer.
Räcker den bandbredden eller är det för långsamt.
Om man säger att ett NPU kort + 128GB DDR5 är mycket billigare än ett RTX PRO 6000 med 96GB VRAM.

Permalänk
Medlem

Minnesmängden och minnesbandbredden är viktigast. Det spelar ingen roll hur snabba beräkningar som kan göras om modellerna inte får plats i minnet eller måste accessas långsamt. Det är i princip aldrig själva beräkningarna som är flaskhalsen.

Skrivet av GuessWho:

Jag undrar om kan kör AI tillämpningar, hur viktigt är snabbt minne jämfört med mycket minne ?

Om det eventuellt hade varit en ide att ha ett AI kort med egna DDR5 minnesplatser?
Så man kan ha mycket minne men billigare och långsammare minne än vad som sitter på grafikkorten.

Eller behöver man hundratals GB/s bandbredd ?
Om kortet exempelvis har 4 kanaler DDR5 istället för bara 2 kanaler som vanliga persondatorer.
Räcker den bandbredden eller är det för långsamt.
Om man säger att ett NPU kort + 128GB DDR5 är mycket billigare än ett RTX PRO 6000 med 96GB VRAM.

Allt under 1TB/s i minnesbandbredd är i princip värdelöst, det går att leka som entusiast med men professionellt är det dödfött. På moderna Epyc moderkort med 12 kanaler kommer du upp till hälften av den bandbredden.

Visa signatur

R&D Elektronik & Radioingenjör

Permalänk
Medlem

För dagens GPU:er har inte kapaciten? :S

Permalänk
Medlem
Skrivet av IceKey:

För dagens GPU:er har inte kapaciten? :S

GPUer klarar mycket mer än en NPU behöver göra. Så man kan bygga effektivare/snabbare enheter om man bara inkluderar sånt en NPU behöver göra.

Permalänk
Medlem

Ok men de flesta nya mid-highend processorer som släpps från både Intel och AMD har ju redan integrerade NPU's. Räcker inte dessa eller?

Permalänk
Medlem

... störigt, NPU har alltid varit Network Processing Unit (nätverkskille här)

Hursom, det blir spännande att se vad som kommer till marknaden, laptops först kanske?

Permalänk
Medlem
Skrivet av SCORPIUS:

Först tänkte jag att va bra, då kan vi säkert slänga på RT/PT på det kortet med.
Men det vore skitdåligt då det kommer bli dyrare, hur länge kommer kortet vara aktuellt?, blir det kort med olika standarder? osv.

Detta blir nog nya "Ageia PhysX", d.v.s. kort som försvinner relativt fort för man kommer på en annan lösning som känns bättre

Visa signatur

Byt namn på Nvidia till NvidAI

Permalänk
Medlem
Skrivet av Rebben:

Minnesmängden och minnesbandbredden är viktigast. Det spelar ingen roll hur snabba beräkningar som kan göras om modellerna inte får plats i minnet eller måste accessas långsamt. Det är i princip aldrig själva beräkningarna som är flaskhalsen.

Allt under 1TB/s i minnesbandbredd är i princip värdelöst, det går att leka som entusiast med men professionellt är det dödfött. På moderna Epyc moderkort med 12 kanaler kommer du upp till hälften av den bandbredden.

Så GeForce RTX 5070 Ti och RTX 5080 med 'bara' 896 GB/s respektive 960 GB/s är värdelösa för AI eftersom det är under 1TB/s minnesbandbredd ?

RTX 4090 då?
Det är över 1TB/s, men bara precis, 1.01 TB/s

Det kan väl inte vara så att RTX 4090 är fantastiskt med sin över 1TB/s minnesbandbredd och RTX 5080 är värdelöst med sin under 1TB/s minnesbandbredd, när skillnaden bara är ca 5.2% ?

Permalänk
Medlem
Skrivet av dlq84:

GPUer klarar mycket mer än en NPU behöver göra. Så man kan bygga effektivare/snabbare enheter om man bara inkluderar sånt en NPU behöver göra.

Låter som ngt som ngn kommer köpa upp, lägga ner och implementera i next gen eller next-next gen gpu:er.

Permalänk
Hedersmedlem
Skrivet av IceKey:

Låter som ngt som ngn kommer köpa upp, lägga ner och implementera i next gen eller next-next gen gpu:er.

Dagens och gårdagens GPU:er gör ju redan detta.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem

Framtidens TPM/Management Engine?
En AI som övervakar datorn på hårdvarunivå och rapporterar över nätet. Får den inte rapportera på x dagar så blir stänger den ner systemet och vägrar boota. 😋

Permalänk
Medlem
Skrivet av Thomas:

Dagens och gårdagens GPU:er gör ju redan detta.

Så en helt meningslös produkt. Kan tänka mig att det är till för konsoler för att avlasta APU utav något slag. Men next-gen APU kommer var så kraftfull så det inte behövs heller.

Permalänk
Medlem

Jasså det börjar bli dags nu. Det här var en idé jag hade också för typ 15 år sedan att det kunde bli något stort bara någon lade manken till att göra det. Det kan definitivt bli en grej utav det som vi kommer ta för givet i framtiden, men bäst vore väl om det utformades någon typ av standard för det så vi inte börjar få en massa olika inkompatibla lösningar.

Permalänk
Medlem

Får vi automagiskt bättre AI i våra spel då eller? Luktar som det gjorde om PhysX-korten.

Permalänk
Medlem
Skrivet av underd0g76:

Får vi automagiskt bättre AI i våra spel då eller? Luktar som det gjorde om PhysX-korten.

Precis som jag nämnde ovan

Visa signatur

Byt namn på Nvidia till NvidAI

Permalänk
Medlem
Skrivet av str8forthakill:

Dessa är nog inte riktade mot persondatorer. Gissar bilar/IOT/servrar.

Precis som med all ny teknik, räkna med stora utvecklingshopp de första generationerna och mindre hopp därefter.

Permalänk
Medlem

hellre att köpa ett instickskort än att jag måste köpa helt ny CPU/moderkaka för att kunna köra lite lättare AI program. plus att man får användning för PCIe portarna äntligen!

Visa signatur

My rig 144hz 1440p 27" samsung g5, Asus Dual 5060ti 16gb, 11900K, TR Peerless assassin,Gigabyte z590 UD, 32GB 3200MHz Vengeance, 1tb nv2, 2TB SSD 4TB HDD, corsair750 vengeance, Lancool 215.
backup 180Hz MSI 1080p 24", 3060ti 8gb, Ryzen 5700X3D,Peerless assassin 120 , Msi b550 pro vdh wifi, 32gb 3600 corsair, 1tb P9a1 + mer lagring, Corsair vengeance 750w, phantek p400a
3rd PC Asus rtx4060, ryzen 5600, MSI b550 pro vdh, 32GB 3200, 1tb Samsung PM9A1, 1tb mx500, MSI MAG650w. HTPC 3060, 10400F, 16GB, 500GB NVME, 960GB A400
Laptop Lenovo Legion 5, 2060, 4800H, 16GB, 1,5TB NVME

Permalänk
Medlem

Oavsett så gillar jag instickskort. Mer instickskort till folket!

Visa signatur

JJ2 Multiplayer
JJ2 ZStats

[1] Ryzen 5800X | 5500XT | Kingston A2000 | Lenovo G24-10 144Hz [2] Ryzen 5700G | RX 480 | WD Blue SN550 [3] Ryzen 5600G | Kingston A2000 [4] Ryzen 3600 | GT 740 | 850 EVO [5] Ryzen 3600 | Geforce 405 | 850 EVO (alla är i bruk)

Permalänk
Medlem

Skulle kunna vara fint ihop med en Raspberry Pi eller liknande för någon egen AI-assistent eller för roliga robotprojekt.

Visa signatur

...

var fri

...

Permalänk
Medlem
Skrivet av d0b:

Skulle kunna vara fint ihop med en Raspberry Pi eller liknande för någon egen AI-assistent eller för roliga robotprojekt.

Google coral finns ju men det kanske behövs lite konkurrens och uppdateringar för att det ska bli mer mainstream.