Nvidia lanserar kompakta AI-superdatorn DGX Spark

Permalänk
Melding Plague

Nvidia lanserar kompakta AI-superdatorn DGX Spark

Grace Blackwell i 240 watt - storskalig AI-beräkning når entusiaster och småföretag.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

*Oberoende tester på olika modellstorlekar inom LLM:er med tydliga tps-värden körandes på den "AI-datorn" efterfrågas!*

Förhoppningsvis dyker det upp förr eller senare på YT från personer som har/hade råd med det. Då kommer den individuella sanningen fram om det är värt ca 50 lax eller ej.

Mvh,
WKF.

Visa signatur

(V)ulnerabilities
(I)n
(B)asically
(E)verything
Programming

Permalänk
Medlem

Årets julklapp!

Permalänk
Medlem

Tja priset är tok för högt för dessa när AMD AI MAX med ungefär liknande prestanda och minnesbandbredd får du för halva priset, vist vissa saker lär denna vara bättre för men för de flesta är den inte prisvärd inte ens för företag.

Visa signatur

Speldator: Ryzen 7800X3D, 64GB DDR5, RTX 5090
Server: i7-8700k, 32GB DDR4, RTX2080
Steam deck, Rog Ally + de fiesta konsoler.

Permalänk
Medlem

Är det inte "högre" FP man vill ha?
Tex FP64.

Permalänk
Medlem

Förhandstittarna visar på usel prestanda jämfört med både alternativ från Apple och AMD. Läser jag Redditposten korrent nedan är AMD 395 "AI PLUS MAX" (eller vad den heter) typ 4 ggr snabbare än DGX Spark för t.ex gpt-oss-120B (och då i nivå med RTX 3090).

https://www.reddit.com/r/LocalLLaMA/comments/1o6163l/dgx_spar...

Men man kanske vill betala för ekosystemet.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av Tenerezza:

Tja priset är tok för högt för dessa när AMD AI MAX med ungefär liknande prestanda och minnesbandbredd får du för halva priset, vist vissa saker lär denna vara bättre för men för de flesta är den inte prisvärd inte ens för företag.

Tänker du på någon speciell modell med AMD i?
Enig med dig i det mesta meeeeeen....

Har du själv testat att köra AI, LLMs och liknande på AMD? Det är inte alltid så smidigt med AMD än.
Jag är inte en Nvidia fanboy, tvärtom. Jag vill verkligen
Att AMD ska lyckas/bli bättre om inte minst så ur ett konsument perspektiv mtp pris.

Dessvärre tror jag Nvidia har ännu ett vinnande konceptet här för sitt bruk, cuda bara fungerar liksom.
Tror det kommer att sälja smör men hoppas att AMD kan kontra och att utvecklarna av software börjar anamma AMD på fler områden.

Visa signatur

Fractal Design Define R6, ASUS X99-E, Xeon E5-2697v3@3.5Ghz allcore, 64gb Hynix ECC REG 2133Mhz, rtx3090, 10gbe nic

Main Server: Proxmox med Truenas och annat virtuellt: Thinkstation P710 - 256gb RAM, Xeon 2697v3, 3xTesla P4 etc + 10gbe Nic

Permalänk
Medlem
Skrivet av superapan:

Förhandstittarna visar på usel prestanda jämfört med både alternativ från Apple och AMD. Läser jag Redditposten korrent nedan är AMD 395 "AI PLUS MAX" (eller vad den heter) typ 4 ggr snabbare än DGX Spark för t.ex gpt-oss-120B (och då i nivå med RTX 3090).

https://www.reddit.com/r/LocalLLaMA/comments/1o6163l/dgx_spar...

Men man kanske vill betala för ekosystemet.

Ja, just CUDA-ekosystemet är väl en stor del av poängen med varför denna maskin tagits fram, men det hade ju varit klart roligare om den imponerade mer prestandamässigt.

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Är det inte "högre" FP man vill ha?
Tex FP64.

Nej, hur mycket precision som behövs beror på applikationen. Maskininlärning kan ofta göras med väldigt låg precision, och FP8/FP4 implementerades specifikt för såna ändamål eftersom det tillåter högre prestanda.

Permalänk
Medlem

Jag vill ha en. Måste bara komma på en stark nog motivering att skaffa en.
Det blir intressant att se hur bra den verkligen är när folk testat den lite mer. Men att bara köpa begagnade delar och bygga själv är troligen väldigt mycket billigare sett till prestanda / kr. Så som pratas om i reddit-länken ovan.

Permalänk
Medlem

DGX-1 (2016)
170 TFLOPS (FP16)

VS

DGX Spark (2025)
1 PFLOPS (FP4)

Men blir det inte väldigt orättvis/ojämn jämförelse om man jämför helt olika FP precision ?
Som att säga att dator B är bättre på Excel än vad dator A är på 3D Mark ?

Om det skalar jämnt?
Så om 16 är 4 gånger mer än 4, om man då åt andra hållet ska dela med 4 ?
1 PFLOPS = 1000 TFLOPS
1000 / 4 = 250 TFLOPS

I så fall är inte skillnaden i prestanda, eller åtminstone i råkraft lika stor som tabellen gör sken av.

Men sen var ju skillnaden i storlek, vikt, strömförbrukning och pris stor.
Så även om beräkningsprestandan hade varit exakt samma så hade det fortfarande varit bättre att köpa en 'billig' DGX Spark som drar mindre än en tiondel av strömförbrukningen, mot att lägga över 100 000 dollar på en DGX-1 om det fortfarande hade varit ett alternativ.

Hade varit intressant om man om 9 år kan köpa ett grafikkort som är 50% snabbare än RTX 5080, samtidigt som det kostar ~ 440 kr och har en strömförbrukning runt 25 Watt.

Permalänk
Medlem
Skrivet av Gnarf:

Tänker du på någon speciell modell med AMD i?
Enig med dig i det mesta meeeeeen....

Har du själv testat att köra AI, LLMs och liknande på AMD? Det är inte alltid så smidigt med AMD än.
Jag är inte en Nvidia fanboy, tvärtom. Jag vill verkligen
Att AMD ska lyckas/bli bättre om inte minst så ur ett konsument perspektiv mtp pris.

Dessvärre tror jag Nvidia har ännu ett vinnande konceptet här för sitt bruk, cuda bara fungerar liksom.
Tror det kommer att sälja smör men hoppas att AMD kan kontra och att utvecklarna av software börjar anamma AMD på fler områden.

Ja, jag har testat att köra på amd, ganska så lätt att komma igång idag funkar bara liksom beroende på verktyg du använder bara att tuta och köra, vist alla verktyg och plattformar finns inte då det mesta är gjort för cuda, men oavsett vad så är denna riktigt snordyr för vad du får, detta för inference dvs, ska du träna o.s.v ja då är mer eller mindre cuda ett krav

Du får t.ex. bättre prestanda med vanlig cpu och kör CPU interference med något billigare nvidia gkort för att offload lite av kv/cache prefil kalkyleringarna, t.ex. på detta vis får du lätt över dubbla prestandan av vad denna presterar och du kommer undan halva priset även med en sådan setup.

Typ det enda denna är bra för idag är ifall du vill träna hyfsat små modeller idag dock dubbla priset och du kommer åt nvidias riktiga ai chips i det fallet som är 10x+ snabbare på detta.

Visa signatur

Speldator: Ryzen 7800X3D, 64GB DDR5, RTX 5090
Server: i7-8700k, 32GB DDR4, RTX2080
Steam deck, Rog Ally + de fiesta konsoler.

Permalänk
Medlem

Men kan den köra Doom?

Är detta bara en beräkningsenhet eller fungerar den som en dator i övrigt?

Permalänk
Medlem
Skrivet av GuessWho:

DGX-1 (2016)
170 TFLOPS (FP16)

VS

DGX Spark (2025)
1 PFLOPS (FP4)

Men blir det inte väldigt orättvis/ojämn jämförelse om man jämför helt olika FP precision ?
Som att säga att dator B är bättre på Excel än vad dator A är på 3D Mark ?

Om det skalar jämnt?
Så om 16 är 4 gånger mer än 4, om man då åt andra hållet ska dela med 4 ?
1 PFLOPS = 1000 TFLOPS
1000 / 4 = 250 TFLOPS

I så fall är inte skillnaden i prestanda, eller åtminstone i råkraft lika stor som tabellen gör sken av.

Men sen var ju skillnaden i storlek, vikt, strömförbrukning och pris stor.
Så även om beräkningsprestandan hade varit exakt samma så hade det fortfarande varit bättre att köpa en 'billig' DGX Spark som drar mindre än en tiondel av strömförbrukningen, mot att lägga över 100 000 dollar på en DGX-1 om det fortfarande hade varit ett alternativ.

Hade varit intressant om man om 9 år kan köpa ett grafikkort som är 50% snabbare än RTX 5080, samtidigt som det kostar ~ 440 kr och har en strömförbrukning runt 25 Watt.

Det är egentligen inte en helt tokig jämförelse, eftersom AI-beräkningar gått från FP16 till FP4 det senaste decenniet. DGX-1 har inte hårdvarustöd för FP8/FP4, så FP16 är det näst bästa där. Så jämförelsen är relevant för det tänkta ändamålet, men de hade förstås ändå kunnat ha med t.ex. FP16 som en fotnot eller nåt.

Permalänk
Medlem
Skrivet av Tenerezza:

Tja priset är tok för högt för dessa när AMD AI MAX med ungefär liknande prestanda och minnesbandbredd får du för halva priset, vist vissa saker lär denna vara bättre för men för de flesta är den inte prisvärd inte ens för företag.

50k dyrt? Vi betalar mer i licensavgifter per dator/år än det...

Visa signatur

''Man får betala för kvalitet och stabilitet'' //Pantburk 2024.
Poor 9800X3D + RTX 5090 user.

Permalänk
Medlem
Skrivet av perost:

Det är egentligen inte en helt tokig jämförelse, eftersom AI-beräkningar gått från FP16 till FP4 det senaste decenniet. DGX-1 har inte hårdvarustöd för FP8/FP4, så FP16 är det näst bästa där. Så jämförelsen är relevant för det tänkta ändamålet, men de hade förstås ändå kunnat ha med t.ex. FP16 som en fotnot eller nåt.

Okej, bra svar.

Men om man av någon anledning hade velat köra någon annan form av arbetslast, där man har nytta av högre precision så hade skillnaden då blivit mindre.

Men som sagt, den stora skillnaden i pris, strömförbrukning, storlek och vikt gör ju en sådan här mer attraktiv än en DGX-1 även om prestandan hade varit liknande.

Permalänk
Medlem
Skrivet av Ryzer:

50k dyrt? Vi betalar mer i licensavgifter per dator/år än det...

Dyr ja, precis som jag skrev innan, för halva priset har du likvärd prestanda från både mac eller amd ai max, eller öka priset med 80% för en rtx pro 6000 som har runt 5-10 ggr mer prestanda, dvs den har en knasig prislapp som jag personligen tycker är dyr för vad den är gjord för.

Visa signatur

Speldator: Ryzen 7800X3D, 64GB DDR5, RTX 5090
Server: i7-8700k, 32GB DDR4, RTX2080
Steam deck, Rog Ally + de fiesta konsoler.

Permalänk
Medlem
Skrivet av underd0g76:

Men kan den köra Doom?

Är detta bara en beräkningsenhet eller fungerar den som en dator i övrigt?

AMDs lösning med Strix Halo,
Exempelvis AMD Ryzen AI Max+ 395 kan användas som en helt vanlig x86 PC.

Nvidia DGX Spark har en ARM baserad processor och ska komma med någon Ubuntu baserad Linux distribution förinstallerad.

Den har 3+1 USB C portar (en används för att strömförsörja enheten).
Den har HDMI och RJ45 portar.
Sen har den någon form av specialport för att länka ihop två stycken DGX Spark med varandra.
Tänk typ som en SLI brygga.

Den ska gå att använda i något Desktop mode.
Så borde gå att spela på den om du har spel som funkar i Linux på ARM processor.

Men går också att använda i något nätverksläge där du kan ha den i ett annat rum och bara kör allt på distans.

Men tror det går att spela på den om du har spel som funkar i Linux på ARM processor.
Men jag har inte sett någon göra det så vet inte säkert.

Kör du AMDs Ryzen AI Max istället så är det x86 (x86-64) processor som du kan köra Windows eller Linux eller vad som helst som fungerar på x86.

Troligtvis är AMDs lösning bättre om du vill helt eller delvis använda den som en vanlig dator.
Men eftersom Nvidias har display utgång (HDMI) och USB portar och en Ubuntu distribution så kan du nog använda den ungefär som en vanlig Ubuntu dator om du vill.

Permalänk
Medlem
Skrivet av perost:

Nej, hur mycket precision som behövs beror på applikationen. Maskininlärning kan ofta göras med väldigt låg precision, och FP8/FP4 implementerades specifikt för såna ändamål eftersom det tillåter högre prestanda.

Tack för bra svar.
Blir lite rädd/osäker på AI om det bygger på "låg" noggrannhet.
Efterapar man inte hjärnans neurala nätverk med viktade noder?
Med tanke på att man vill ha så många neuroner sammankopplade borde väl en hög noggrannhet vara viktigt?
Känns som att det är hög risk för avrundningsfel annars.

Tycker det verkar som att man kör FSR/DLSS-alternativet för LLMer.
Det är ju trots allt en glorifierad "auto-complete" som vi byggt av låg noggrannhet.
Förstår varför den hittar på fakta lite då och då

"Fort och fel"...

Permalänk
Medlem
Skrivet av ThomasLidstrom:

"Fort och fel"...

Mycket med AI verkar vara fokuserat på att den ska producera NÅGOT™ och att den ska göra det snabbt.
Huruvida NÅGOT™ är användbart eller rätt verkar spela mindre roll.

Permalänk

Min åsikt kring ”AI” och det som liknar AI är coolt intressant teknologi.
Men det är lite spelkraschen år 1983. För mycket spel som hade låg kvalité pumpades ut på marknaden. Resultatet av denna krasch blev inte att att ingen därefter någonsin spelade spel längre utan att företag/investerare förlorade pengar.

Lite samma sak tänker jag på detta projekt som tråden handlar om, inget som jag hade satsat mina pengar på.

Ibland har högrisk projekt varit lyckade, iPhone är en sådan. Där Steve Jobs inte ens kunde ha en iPhone för hela presentationen utan han fick växla mellan olika.

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Är det inte "högre" FP man vill ha?
Tex FP64.

När man tränar brukar man vilja ha högre precision än vid interferens.
Vissa modeller ska tydligen klara sig bra vid låg precision, men typ deepseek-r1 börjar få problem med strawberrrrry testet när man går under fp16.

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Tack för bra svar.
Blir lite rädd/osäker på AI om det bygger på "låg" noggrannhet.
Efterapar man inte hjärnans neurala nätverk med viktade noder?
Med tanke på att man vill ha så många neuroner sammankopplade borde väl en hög noggrannhet vara viktigt?
Känns som att det är hög risk för avrundningsfel annars.

Tycker det verkar som att man kör FSR/DLSS-alternativet för LLMer.
Det är ju trots allt en glorifierad "auto-complete" som vi byggt av låg noggrannhet.
Förstår varför den hittar på fakta lite då och då

"Fort och fel"...

Vad jag förstår så handlar det väl om att man tränar modellen med högre precision och sedan skapar optimerade versioner för snabb inferens.

Se t.ex. https://developer.nvidia.com/blog/optimizing-llms-for-perform...

Vad gäller att LLMer hittar på fakta så hör det nog mer till sakens natur än det är en fråga om beräkningsnoggrannhet, tänker jag iaf.
Ett system som är skapat för att generera "typisk text" vet ju inte saker. Så om fakta är viktigt så vill det nog till att fakta ligger med i prompten, inte att fakta är en del av det tomrum som ska fyllas i av LLM.

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem

Wenell kör en lång genomgång

Permalänk
Medlem
Skrivet av GuessWho:

Sen har den någon form av specialport för att länka ihop två stycken DGX Spark med varandra.
Tänk typ som en SLI brygga.

Specialport skulle jag inte kalla det. Det är 2 st QSFP portar a 100Gbit/s vardera, standard prylar för höghastighets nätverk.

Jämförelsen med en SLI brygga är inte helt tokig för hur de är tänkta att användas, men den faller lite kort. Det är helt enkelt vanliga nätverks portar.

Permalänk
Medlem

Konstigt jämförelse med FP16 vs FP4, men vad jag kan se tror jag isåfall att denna hamnar ett snäpp under 5070Ti iallafall som enligt nvidias pdf om blackwell ska ha ~1.4PFLOPS i FP4. Så isåfall för prispunkten är 5070 eller uppåt mer prisvärd för inferens för modeller som får plats i VRAM, alltså är main selling point här att den är kompakt och har 128GB, så deras target är användare för vilka inferens med stora modeller är viktigt men som inte bryr sig om högre precision eller högre prestanda (5090 har ju 3.3PFLOPS if FP4). Rätt specifik nisch ändå?

Väldigt låg minnesbandbredd, 273GB/s vs 896 för 5070Ti och 1792 för 5090 så skulle gissa att den inte är något monster vad gäller högre precision tyvärr. Nyfiken på varför den inte körde HBM för denna prisklass men HBM är väl kanske svårare att få till bra i sådan kompakt design eller något?

Är mer nyfiken på vad processorn kan göra, vore coolt om Nvidia gör en schysst superhero-landing med hyper competitive ARM-processorer.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Konstigt jämförelse med FP16 vs FP4, men vad jag kan se tror jag isåfall att denna hamnar ett snäpp under 5070Ti iallafall som enligt nvidias pdf om blackwell ska ha ~1.4PFLOPS i FP4. Så isåfall för prispunkten är 5070 eller uppåt mer prisvärd för inferens för modeller som får plats i VRAM, alltså är main selling point här att den är kompakt och har 128GB, så deras target är användare för vilka inferens med stora modeller är viktigt men som inte bryr sig om högre precision eller högre prestanda (5090 har ju 3.3PFLOPS if FP4). Rätt specifik nisch ändå?

Väldigt låg minnesbandbredd, 273GB/s vs 896 för 5070Ti och 1792 för 5090 så skulle gissa att den inte är något monster vad gäller högre precision tyvärr. Nyfiken på varför den inte körde HBM för denna prisklass men HBM är väl kanske svårare att få till bra i sådan kompakt design eller något?

Är mer nyfiken på vad processorn kan göra, vore coolt om Nvidia gör en schysst superhero-landing med hyper competitive ARM-processorer.

Jag tror ju att huvudpoängen med denna maskin ur Nvidias perspektiv är att det ska vara något slags devkit där man lokalt kan göra utvecklingsarbete med CUDA och öht kunna använda större modeller, och sedan driftsätter på svindyra Nvidia GPUer.

Dvs, CUDA med 128 GB minne till någorlunda överkomligt pris är USPen.
Och att prestandan är "sådär" ingår nog i konceptet just för att ha (jämförelsevis) lågt pris utan att konkurrera med GPU-lösningarna.

(Vad gäller FP4 så har det tidigare diskuterats lite i tråden, och stöd för FP4 med tillhörande prestandaförbättring läggs nog fram som en feature jämfört äldre plattform, snarare än att det bara är orättvist)

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem

Sitter just nu å set sth review. Den version de testar har 200gbe nätverk.

https://www.servethehome.com/nvidia-dgx-spark-review-the-gb10...

Visa signatur

Fractal Design Define R6, ASUS X99-E, Xeon E5-2697v3@3.5Ghz allcore, 64gb Hynix ECC REG 2133Mhz, rtx3090, 10gbe nic

Main Server: Proxmox med Truenas och annat virtuellt: Thinkstation P710 - 256gb RAM, Xeon 2697v3, 3xTesla P4 etc + 10gbe Nic

Permalänk
Medlem

Rent spontant så känns produkten dyr, för vad du får. Då du kan köpa konkurrentens (AMD) för halva priset, och du får x86 processor istället för ARM.

Mjukvaran till AMD's ekosystem utvecklas väldigt fort. AMD har blivit partner med Open AI dessutom som kommer hjälpa dem med mjukvaran.

Och det här väl anledningen till att Nvidia investerade i Intel, för att kunna köra ett Intel(x86)/Nvidia chip. Det lär komma om något år.

Jag hoppas ha råd med en sån här produkt i framtiden..

Permalänk
Medlem
Skrivet av Gnarf:

Sitter just nu å set sth review. Den version de testar har 200gbe nätverk.

https://www.servethehome.com/nvidia-dgx-spark-review-the-gb10...

För tydlighets skull så verkar det ju vara en lösning specifikt avsedd för att kunna stacka två sådana där burkar, snarare än att det är tänkt för allmänt nätverkande (utesluter inte att det senare är möjligt).
Nånting nånting Nvidia ConnectX nånting RDMA nånting

Visa signatur

Desktop spel m.m.: Ryzen 9800X3D || MSI X870 Tomahawk Wifi || MSI Ventus 3x 5080 || Gskill FlareX 6000 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Arbetsstation: Ryzen 7945HX || Minisforum BD790i || Asus Proart 4070 Ti Super || Kingston Fury Impact 5600 65 GB || WD SN850 2TB || Samsung 990 Pro 2TB || Fractal Ridge
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304