Mac M4 eller M4 PRO för DeepSeek/LLM etc
Senast redigerat
Senast redigerat
Överväger att uppgradera från min MacMini M2 16GB, och funderar på vad mitt framtida behov är.
Jag spelar knappt längre utan det är mest surf, även om jag potentiellt vill ha möjlighet att köra tyngre simuleringar (CFD, FEM etc).
Men framför allt tror jag man kan ha nytta av att kunna köra exempelvis DeepSeek lokalt, utan att betala för abonnemang.
Hur stora LLM modeller är någorlunda tillräckligt och hur stora kan respektive apple M4/M4 PRO hantera?
Som jag förstår det bör man som privatperson komma långt med 16/24 GB minne.
Så hur står sig följande kretsar mot varandra och var ligger gränserna på hur stora modeller de kan köra?
M2/16GB vs M4/16GB?
M4/24GB vs M4 PRO/16GB vs M4 PRO/24GB?
M4/32GB vs M4 PRO/32GB?
Jag fattar såklart att M4 PRO/64GB blir bäst, men för mig är priset inte rimligt då jag inte kommer använda det kommersiellt.
Vilken bör man som privatperson titta närmare på för att framtidssäkra sig i den kommande lokalt drivna AI-boomen?
Edit: Förtyydligande och stavfel.
Superintressant frågeställning. Jag skulle ha exakt samma om jag inte hade enklaste Mac Mini M4.
Apples stora problem är att de som flera andra företag har ett lågt grundpris, sedan skenar priset iväg utan bara tusan. Ska man ha en vettig Mac mini så kostar den det dubbla.
Jag experimenterade lite med m4 16GB ram och min åsikt som ren LLM så ser jag ingen större vits att använda den emot de stora ute som är så mycket snabbare om man inte ska träna LLM på egen data.
Problemet med de stora online är att datan kan komma till andra, men man får tänka sig vad man skriver.
Företag borde också köra LLM lokalt som anställda kan dela på.
Jag själv ser mest min Ai på mac mini för att försöka hänga med i utvecklingen inte den ger mig så mycket tidsbesparing.
Jag kan för övrigt se en viss likhet med internet 1996. En väldigt liten andel sparade tid genom ha internet utan de skaffade det medför att hänga med. Med det sagt så avråder jag de flesta lägga ut så mycket pengar idag på LLM när utvecklingen går så snabbt.
Superintressant frågeställning. Jag skulle ha exakt samma om jag inte hade enklaste Mac Mini M4.
Apples stora problem är att de som flera andra företag har ett lågt grundpris, sedan skenar priset iväg utan bara tusan. Ska man ha en vettig Mac mini så kostar den det dubbla.
Jag experimenterade lite med m4 16GB ram och min åsikt som ren LLM så ser jag ingen större vits att använda den emot de stora ute som är så mycket snabbare om man inte ska träna LLM på egen data.
Problemet med de stora online är att datan kan komma till andra, men man får tänka sig vad man skriver.
Företag borde också köra LLM lokalt som anställda kan dela på.
Jag själv ser mest min Ai på mac mini för att försöka hänga med i utvecklingen inte den ger mig så mycket tidsbesparing.
Jag kan för övrigt se en viss likhet med internet 1996. En väldigt liten andel sparade tid genom ha internet utan de skaffade det medför att hänga med. Med det sagt så avråder jag de flesta lägga ut så mycket pengar idag på LLM när utvecklingen går så snabbt.
Tack för input lilla ankan.
Jag var/är en av dem som bara vill hänga med, men jag är ändå så gammeldags att jag så långt det går motsätter mig den nya tidens prenumerationstjänster och insamling av min data. Får avvakta lite tills vi vet hur stora modeller som blir "lagom" för oss hobbyister.
Spelnyheter från FZ
Copyright © 1999–2025 Geeks AB. Allt innehåll tillhör Geeks AB.
Citering är tillåten om källan anges.