Det är kul att ta ett steg tillbaka och se över en längre period hur datoranvändandet har ändrats samt hur användandet av datorer har i sig ändrat på oss människor och våra vanor samt vardag. Från "640K räcker" (ja det är en myt jag vet) fram till idag med all AI snack, det är som sagt väldigt spännande hur många "enablers" som har tillkommit från då till idag.
Ja, trudelutt är definitivt på spåret; Att köra flera instanser av språk, bild, röst eller andra modeller kan komma tidigare än vad flesta tror, även att köra flera av dem samtidigt ihop för samverkan; Dessa kan vara flera GB i storlek vardera så jag håller med trudelutt att RAM kan verkligen vara till nytta i detta scenario, så som vid en lokal körning av LLM.
Apropå förr, det var inte alltför längesen "vanligt folk" eller dator-entusiaster varken höll på med bild och video-redigering, 3d renderingar eller streaming överhuvudtaget.
När "enablers" så som hårdvaro-accelerering (GPU rendering, GPU encoders) och flertrådade processorer kom till så öppnade det upp möjligheten för "vanliga" att hålla på med editing, rendering och sånt inklusive streaming.
"4 kärnor räcker för vanligt folk" blev snabbt en dålig meme efter att Ryzen cpu:erna släpptes (lika dåligt om inte sämre än "640K")
Går man längre bak i tiden gällande rendering, så var större renderingar förr något man gjorde på flera datorer (de var smärtsamt att sätta upp) och det fanns inga andra alternativ, såvida man inte betalade någon annan att sätta upp en renderingsfarm som man betalade för att använda; Idag har vi 32+ trådar konsument cpu:er som fungerar som "enablers" (även GPU/Multi-GPU renderingar).
Däremot i vår närtid så hade vi något liknande som vid rendering, liknande var det även med streaming; Man hade 2 burkar där den ena spelade man på och den andra skötte streamingen. Idag kör man allt i en och samma burk med hjälp av GPU Encoders som "enabler" och man får då även mycket högre kvalité idag (jämfört med gamla svagare CPU:er för realtid).
Gällande idag, samma sak ser ut att det skulle kunna ske med RAM framöver, där den ökade mängden skulle kunna öppna upp och agera som "enabler" för flera roliga användningsområden, så som ML träning och inference (körning av AI modeller).
Kanske blir en liknande historia senare där man säger "Förr körde man AI på flera datorer, andras datorer dessutom som man även fick betalade för som en prenumerationstjänst! Nu kör jag allt från samma dator hemma" (likt det man gjorde med renderingsfarmer).
Om framtiden, jag siar dessutom att i en relativ nära framtid kommer operativsystem utan en kapabel LLM inte vara på tanken. Det kommer vara helt integrerat i flera delar av operativsystemet och även köras lokalt (vi börjar ju se det med Microsoft Copilot och Office redan idag).
En av dessa funktioner skulle kunna vara att ersätta sök helt och hållet, alternativt att man låter LLM sköta sökningen "under huven" åt en. Givetvis finns andra integreringar så som att assistera vid skrivning av vanlig text och formuleringar (och omformuleringar) utav texten. (nu tog jag bara LLM exempel, finns ju som sagt andra modeller att integrera i OS:et)
Om modellerna förblir stora kommer den ökade RAM mängden definitivt behövas, för "vanligt" folk
Utöver AI så är RAM Disk är ju också ett intressant användningsområde för t.ex. kod-kompilering, men just detta kodnings-exempel utav RAM Disk räknas kanske inte som för "vanligt folk".
Så länge SSD:er med sina låga sub 100MB/s Q1 djup förblir så förblir RAM Disk intressant, synd att Intel dödade Optane.
Annan kommande teknik kring RAM som är intressant är CXL memory, med detta ska man kunna lägga mer RAM i datorn via PCIe-kort och öka systemets totala RAM relativt enkelt. Hoppas bara att den även kommer till konsumenter utöver Servermarknaden.