Använd AMD-grafikkort via USB

Permalänk
Melding Plague

Använd AMD-grafikkort via USB

Ny metod från Tiny Corp ska fungera på Windows, Linux och Mac.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Om nu bandbredden är tillräcklig via usb, kan då alla andra komponenter också "teoretiskt" funka via usb för beräkning. Tänkte mig typ CPU o RAM. Känns som att metoden är en aning vingklippt. Bättre att köra via PCIe.

Visa signatur

NZXT H7 Flow, ASUS Z390-E, Intel 9700K 3.6GHz, 16 GB Corsair Vengeance 3.2GHz, Samsung EVO 970 500GB, MSI RTX 2070 Gaming Z, Seagate Barracuda 4 TB, Corsair RM750X V2 750W, Noctua NH-D15, 1 st FD Venturi HF-14, 6 st Phantek M25 120mm, Dell S2721DGFA,

Permalänk
Medlem
Skrivet av Mörksuggan:

Om nu bandbredden är tillräcklig via usb, kan då alla andra komponenter också "teoretiskt" funka via usb för beräkning. Tänkte mig typ CPU o RAM. Känns som att metoden är en aning vingklippt. Bättre att köra via PCIe.

Om hela modellen (artikeln gäller AI/LLM) får plats i grafikkortets minne så är det den initiala överföringen av modellen som kommer ta mer tid ifall kortet har en långsam koppling till datorn. Efter det är det mycket mindre krav på bandbredd mellan datorn och grafikkortet. Den bandbredd som är viktig är mellan grafikprocessorn och grafikminnet och den påverkas inte av hur grafikkortet ansluts i/till datorn.

Det skiljer sig från att ha en ensam CPU eller rent systemminne (RAM) kopplat via en långsam usb-koppling, de kommer begränsas till att bil oanvändbara ifall all minnesaccess ska ske via usb. Har man ett beräkningskort med både CPU+minne (eller t.ex. ASIC+minne) så kan det däremot vara användbart.

Permalänk
Medlem

Tinygrad är ett väldigt coolt projekt, och jag har gillat hotz tidigare hårdvaru-hack men sjukt svårt att ta hans påståenden seriöst efter hela hans twitter-bullshit där han satt i stream och vibekodade "lösningar" till problem med plattformen utan att veta hur backend såg ut, blev anställd för att fixa diverse åt musk och sedan gav upp när det vart mer komplicerat än att bara slänga ihop en placeholder "snabb sök" eller vad det nu var och bara anta att allt i bakgrunden skulle lösa sig typ.

Köper att det var en career moonshot och gjorde honom mer relevant igen men från någon som verkat så seriös tidigare så kändes det som så extremt ytlig interaktion, får mig verkligen att undra hur mycket av hans kritik som grundas mest i en rent subjektiv vibe-check.

Tinygrad ser nice ut oavsett, men känns lite som att han ville bygga det från början snarare än att använda rocm. Vill han ha mer användarvänligt finns alltid cuda, om han vill gå low-level kan han ju göra det när han vill. Känns som klassiskt case av att hacker vill bygga en grej men presenterar det som att de inte hade något val för att allt som alla andra använder bara är så extreeemt dåligt.

EDIT: Kan nog var tydligare i vad som stör mig- gillar inte när folk baserar ett project på open source för att förbättra eller utöka vad existerande kodbas gör, och sedan gnäller på att den är så dålig. Jag misstänker att han inte skulle ha det så roligt om ROCm inte var open source. Att han kör reverseengineering och skriver allt från början efter att ha satt sig in i ROCm betyder inte att han kodar i ett vakuum.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Känns som 'cap' att Amd skulle vara bättre prestanda per kr i Ai, det enda jag kommer tänka på är 7900xt och 7900xtx pga. deras vram. men det kommer det bli ändring på med uppkommande Nvidias ryktade 50-super serie med 3gb minnesmoduler.

Permalänk
Medlem
Skrivet av rwkk:

Känns som 'cap' att Amd skulle vara bättre prestanda per kr i Ai, det enda jag kommer tänka på är 7900xt och 7900xtx pga. deras vram. men det kommer det bli ändring på med uppkommande Nvidias ryktade 50-super serie med 3gb minnesmoduler.

Det är väl specifikt 7900XTX som hotz har hållt på med en del vad jag sett, men det är nog inte pga VRAM utan compute-prestanda skulle jag tro, om TPU's specdatabas stämmer:

4090
FP16 (half): 82.58 TFLOPS (1:1)
FP32 (float): 82.58 TFLOPS
FP64 (double): 1,290 GFLOPS (1:64)

7900XTX
FP16 (half): 122.8 TFLOPS (2:1)
FP32 (float): 61.39 TFLOPS
FP64 (double): 1.918 TFLOPS (1:32)

Sedan är ju tensorkärnorna relevanta här med men för low level
och minimalism kanske det är trevligare att fokusera på rå FP eller något?

Sedan nämner artikeln machine learning vilken är en del av AI men inte hela AI- Nvidia är stark i AI generellt pga deras satsningar i ekosystemet, Cuda är alltså en stor del av det. Men Cuda är proprietärt. Tinygrad verkar ju sikta på att vara så minimalistiskt som möjligt och kommunicera så direkt som möjligt med hårdvaran, ROCm är open source vilket jag gissar ger mer möjlighet att klura ut hur saker sker exakt och sedan bygga en egen version.

Undrar också om hotz inte liksom bestämmer sig i förväg vad han tycker och sedan hittar underlag längs vägen ibland. Han låter lite så när man lyssnar på hans rants. Kan mycket väl vara så att han faktiskt inte evakuerat vilken prestanda han kommer få i slutänden så mycket som att han bestämt sig för att han tycker en sak och sedan väljer ett scenario att lyfta fram som motiverar det.
Inget emot det i sig, man ska följa hunches ibland, jag gör mycket så med

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Känns som klassiskt case av att hacker vill bygga en grej men presenterar det som att de inte hade något val för att allt som alla andra använder bara är så extreeemt dåligt.

Ja fy satan, jag har varit med om många exempel på detta, bland annat en jubelåsna till chef som alltid presenterade sina nya idiotprojekt på det viset.

Att påstå att "allt som redan finns är ju bara skit" och få sig själv att framstå som någon som minsann både kan och vet mycket bättre än alla andra, är något som tyvärr funkar alldeles för bra på oinsatta individer (så som lättlurade investerare).

Visa signatur

9950X3D | 5080

Permalänk
Medlem

jag hoppas att dem finner nått sätt att använda det i spel, flytta över vissa grejjer till det kortet som gör att man kan boosta prestandan på "main" kortet med typ 20-30% minst

Permalänk
Medlem
Citat:

Nu handlar det inte om grafikkort för spel. Det skulle USB 3.0:s försumbara bandbredd på 10 Gbit/s aldrig räcka till även om det var teoretiskt möjligt.

USB 3.0 är väl bara 5Gbit/s ?
Det är väl USB 3.1 Gen 2 som är 10 Gbit/s
(Även kallat USB 3.2 Gen 2)

Permalänk
Festpilot 2020, Antiallo

Vilken sjuk nothingburger att skriva om.
De använder en USB till PCIe-krets som klarar av USB 3.2 eller USB 4 på ena sidan och PCIe på andra sidan. Gäsp!

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av DavidtheDoom:

Vilken sjuk nothingburger att skriva om.
De använder en USB till PCIe-krets som klarar av USB 3.2 eller USB 4 på ena sidan och PCIe på andra sidan. Gäsp!

...och dessutom nyttjar de bara USB 3.0 enligt artikeln. Väldigt smalt användingsområde.

Jag fattar inte varför inte fler externa grafikkortsdockor över TB4/5 görs. Det är ju det perfekta sättet att göra en laptop till en speldator, renderingsmonster m.m. De flesta moderna laptops idag har en eller flera TB-kontakter och TB5 är bakåtkompatibelt med tidigare TB-versioner samt USB4. Med TB5 borde även brandbredden vara tillräcklig. Istället ser jag massa olika alternativ som är hårt begränsade av specifika gränssnitt som ingen använder.

Permalänk
Medlem
Skrivet av Jagers:

jag hoppas att dem finner nått sätt att använda det i spel, flytta över vissa grejjer till det kortet som gör att man kan boosta prestandan på "main" kortet med typ 20-30% minst

Låter som SLI/crossfire med extra steg.

Permalänk
Skrivet av DLM:

...och dessutom nyttjar de bara USB 3.0 enligt artikeln. Väldigt smalt användingsområde.

Jag fattar inte varför inte fler externa grafikkortsdockor över TB4/5 görs.

Marknaden är redan full. Hade varit en annan fråga om TB var en öppen standard (likt displayport).

Good luck å hitta ett AMD-moderkort på andrahandsmarknaden som har TB ö.h.t. liksom.

Visa signatur

Byt namn på Nvidia till NvidAI

Permalänk
Skrivet av Shiprat:

Tinygrad är ett väldigt coolt projekt

Jag hade haft intresse om det hade fungerat likt DisplayLink men utan den cpu-overhead som DisplayLink har.

Med en i7 5th gen. äter DisplayLink "drivrutinen" 40-60% prestanda konstant i 1080p60 (30fps render, 60Hz interlaced)
Tänk då hur mycket deras 4k60 implementation äter prestanda.

Visa signatur

Byt namn på Nvidia till NvidAI

Permalänk
Medlem
Skrivet av Patrik356b:

Marknaden är redan full. Hade varit en annan fråga om TB var en öppen standard (likt displayport).

Good luck å hitta ett AMD-moderkort på andrahandsmarknaden som har TB ö.h.t. liksom.

Fast nu är det inte stationära datorer jag främst pratar om (där du kan använda befintliga PCIe-kontakter) utan laptops där TB är en standard. Inte sällsynt alls. Öppet mål för vem som helst att göra en docka med TB-stöd. På vilket sätt är det smartare att göra grafikkortsdockor med gränssnitt som ingen knappt har hört talas om istället för TB?

Vad är marknaden full av (förstår inte vad du syftar på)?

Mitt ASUS ProArt B550 är ett AM4 moderkort och har dubbla TB-kontakter. Sen har du även massor av AMD-moderkort som har USB4 som är TB-kompatibelt.

§ 1.1 - MOD
Permalänk
Medlem
Skrivet av DLM:

En enkel sökning på Webhallen visar att USB4 finns på 20st av deras listade AMD moderkort och återfinns på både x870 och x670 moderkort.
https://www.webhallen.com/se/search?searchString=amd%20usb4&s...

X870-moderkort har i själva verket krav på USB4, annars är de inte X870 utan B850 (samma styrkrets, olika krav).

Permalänk
Medlem
Skrivet av DLM:

...och dessutom nyttjar de bara USB 3.0 enligt artikeln. Väldigt smalt användingsområde.

Artikeln talar mot sig själv...

"Nu handlar det inte om grafikkort för spel. Det skulle USB 3.0:s försumbara bandbredd på 10 Gbit/s aldrig räcka till även om det var teoretiskt möjligt."

Name Release date Maximum signaling rate Note USB 3.0 November 2008 5 Gbit/s: SuperSpeed (SS) Renamed to USB 3.1 Gen 1, and later to USB 3.2 Gen 1×1 USB 3.1 July 2013 10 Gbit/s: SuperSpeed+ (SS+) Renamed to USB 3.1 Gen 2, and later to USB 3.2 Gen 2×1

USB 3.0 har stöd för 5Gbit, inte 10Gbit.
Det blir USB 3.1 Gen 2 som har stöd för 10Gbit.

Permalänk
Moderator
Moderator

Några inlägg där argumentationen direkt spårade ur i tramsigt munhuggeri (§ 1.1 / 1.2) har raderats. En diskussion fungerar generellt mycket bättre om man håller sig till sakfrågan istället för att ifrågasätta varandras kognitiva utveckling.

- MOD

Visa signatur