Microsoft Copilot kan snart köras direkt på datorn

Permalänk
Melding Plague

Microsoft Copilot kan snart köras direkt på datorn

Intel avslöjar att företagets processorer snart är kapabla att köra Microsofts AI-assistent Copilot lokalt istället för i molnet.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Jag känner mig lite glad över att ej ha köpt ny laptop ännu och kan få någon lite Ai prestanda.
Sedan är jag lite fundersam på när man behöver lokal Ai? Liksom när inte Intels Core Ultra 7 165H i närheten uppfyller rekommendationen för AI-PC idag och knappast kraven imorgon, så blir det väldigt dyrt om all ens datorutrustning ska uppfylla dessa krav.

Men behöver man verkligen ha så kraftig Ai på alla maskiner? Räcker det inte ofta att man skaffar en schysst dekstop hemma och sedan fjärrstyr denna? Det är när man ska automatisera saker som man kanske behöver Ai lokalt, men det är samma sak där att man kan göra det på desktopen hemma.

Angående nytta av Ai.
Jag själv har vunnit affärer tack vare mina extra verktyg jag har skapat helt för hand utan Ai. De andra som konkurrerade om affären ville göra precis allt manuellt och påpekade hur duktiga de var, vilket de också var men de jobbade manuellt och konkurrerar emot folk som har verktyg..
Att skapa mina verktygen har dock tagit så extremt mycket tid och slitsamt. Hade jag med morgondagens Ai skapat verktygen så hade det kanske varit hälften så slitsamt.

Jag förespår då en framtid där folk med Ai kommer skapa just mycket mer verktyg för att snabba upp och förbättra deras arbete, den som vill sitta där och göra allt manuellt kommer få problem. Och verktyg kan vara en sådan enkelt sak som lite formler i Excelbladet, med Ai så går detta snabbare att få till.

Ai kommer både sänka trösken så fler kan automatisera arbetssätt. Och de som redan automatiserar kan göra det ännu mer på samma tid.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Ai kommer både sänka trösken så fler kan automatisera arbetssätt. Och de som redan automatiserar kan göra det ännu mer på samma tid.

Mmmm... Detta är nog början på nästa evolution och tillhörande reform av arbetsmarknaden.

Mycket hårt, slitigt, skitigt och repetitivt manuellt arbete har ju automatiserats och idag utför kanske 50 anställda tillsammans med sina robotar på industrigolvet samma mängd arbete som 1000 gubbar gjorde för bara några decennier sen.

Då dessa jobb försvann så tvingades fler o fler istället söka sig till arbeten där man istället "jobbade" med huvudet sittandes vid ett skrivbord....

Får "AI" samma genomslag på denna del av arbetsmarknaden så lär väldigt många snart gå arbetslösa.

Visa signatur

1f u c4n r34d th1s u r34lly n33d t0 g37 l41d

Permalänk
Datavetare

Givet att det faktiskt varit en hel del artiklar kring framåtblickande teknik (ARM64), istället för att fundera hur bra nästa generation ånglok kan tänkas bli (Arrow Lake / Zen5)

kan det ändå vara värt att nämna att kommande Snapdragon X Elite ser ut att bli första CPU att nå upp till Microsoft krav på minst 40 TOPS då den integrerade "Hexagon" enheten (som finns i alla Snapdragon) kommer ha en kapacitet på 45 TOPS.

Sen har både Intel och AMD sagt att deras nästa generation plattformar för bärbara kommer ungefär tredubbla prestandan de har idag, så de lär också nå upp till den gränsen i slutet av året.

Sen angående att moderna dGPUer utan problem når upp till 45 TOPS: så är det så klart och bryr man sig bara om prestanda kommer dGPUer leverera mer prestanda än NPUer ett bra tag till. Som jag förstår optimeringspunkten för NPUer är det att dessa primärt ger "bra AI-prestanda" till en fantastisk perf/W (mycket bättre än dGPUer, som i sin tur är mycket bättre än CPUer).

Och lite som att Nvidias tensor-kärnor ger "nästan gratis" DLSS stöd då de annars inte används av spel, ger ju NPUer "gratis AI-acceleration" då man kanske vill använda sin GPU för andra krävande uppgifter. Eller man kanske inte bara vill att dator ska dra flera 100 W för "normalt arbete", vilket om AI bli så vanligt förekommande som det verkar, blir resultatet om man kör acceleration på GPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Den här kan man köra lokalt redan nu: https://jan.ai/
Där kan man välja vilken modell man vill köra beroende på ens hårdvara. Skillnaden mellan att utnyttja GPU (Nvidia i mitt fall) var som natt och dag.

Mvh
Anders

Permalänk
Datavetare
Skrivet av AndersL:

Den här kan man köra lokalt redan nu: https://jan.ai/
Där kan man välja vilken modell man vill köra beroende på ens hårdvara. Skillnaden mellan att utnyttja GPU (Nvidia i mitt fall) var som natt och dag.

Mvh
Anders

Ett till alternativ för den som vill köra lokalt är LM Studio. Jan och LM Studio är båda front-end till att kunna använda det bibliotek av öppna LLMs som finns, så valet mellan dessa är nog främst vilket UI man gillar bäst.

Är man MacOS användare verkar Jan ha begränsningen att man alltid kör på GPU, hittar ingen inställning för att välja CPU. LM Studio tillåter CPU, GPU eller en mix av dessa på alla plattformar.

Angående prestanda: även om CPU-delen på M3 Max får stryk av GPU är den ändå mer än 3 gånger snabbare än CPU-delen i min stationära med 5950X. Gissar att LLMs är rätt begränsade av bandbredd mot RAM, lite för stor prestandaskillnad för att bara komma från beräkningskraft (M3 Max har 400 GB/s mot RAM).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Jag har hört under väldigt lång tid att "Google är det bäst som hänt oss" (sökmotorn då alltså). Google var revolutionerande bra när den kom. Jag vill påstå att Copilot (då menar jag AI, inte nödvändigtvis MS version av Copilot) är den nya revolutionen. Så jäkla bra det är!

Permalänk
Medlem

Även RTX 4090 har relativt lite vRAM, 24GiB som bäst. Så fort datan spiller över så hjälper det massor att ha NPU-stöd.
Grok modellen som släpptes nyligen är 296.38GiB ungefär lika stor som ChatGPT-3, sägs vara INGET mot hur stor ChatGPT4 är.
GPT-2 var några GB, som vi minns var den riktigt kass.

Personligen ogillar jag tanken av att alla ska köra egna AI-modeller lokalt, lite som om alla hade en egen magnetröntgenmaskin hemma, den är bra att ha när den behövs, men är mer kostnadseffektivt om folk delar.

LLM är ett pay-to-win spel, där den som har bäst hårdvara vinner. Intressant video här https://www.youtube.com/watch?v=zjkBMFhNj_g
Lokala modellerna kommer alltid vara ruskigt sämre än någon som hostas på några hundra H100.

Visa signatur

How do 'Do Not Walk on the Grass' signs get there ?

Permalänk
Medlem

Nya tangentbordsknappar för Copilot? Nej fy fan!

Jag minns när Windowsknappen blev en grej, och hur många gånger den blev feltryckt istället för Alt.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av AndersL:

Den här kan man köra lokalt redan nu: https://jan.ai/
Där kan man välja vilken modell man vill köra beroende på ens hårdvara. Skillnaden mellan att utnyttja GPU (Nvidia i mitt fall) var som natt och dag.

Mvh
Anders

Nice! Man kan även köra ollama direkt i linux subsystem för windows (wsl direkt i terminalen)

Även via ollama kan man välja mellan en jädra massa språkmodeller och vissa är t.om helt ocensurerade

Fördelen jag ser med att köra lokal AI har nog främst att göra med integriteten, foliehatten sitter stenhårt på skallen och jag litar inte en sekund på att "moln-ai" lever upp till mina krav på personlig integritet.

Visa signatur

Chassi> FD Define S CPU> i7 10700 GPU>RTX 3070 MB> GB B460 Aorus Pro AC Ram> 32GB PSU> Corsair AX1200

"Server"> Enthoo Pro CPU> i7 5960x @ 4,2 Ghz GPU>GTX 760 MB> Asus x99 Deluxe Ram> 32GB 2666mhz PSU> Corsair CX650

Kringutrustning> Philips 70PUS7304, AOC AGON AG271QG, Roccat ISKU Fx, Logitech G502 Spectrum, MX 5500, MX Revolution, Arctis Nova Pro Wireless, Behringer Ms40, HP Reverb G2, MSI GF65 Thin 10SER, USB 990 Pro 2tb,

Permalänk
Skrivet av Mizccc:

Nice! Man kan även köra ollama direkt i linux subsystem för windows (wsl direkt i terminalen)

Även via ollama kan man välja mellan en jädra massa språkmodeller och vissa är t.om helt ocensurerade

Fördelen jag ser med att köra lokal AI har nog främst att göra med integriteten, foliehatten sitter stenhårt på skallen och jag litar inte en sekund på att "moln-ai" lever upp till mina krav på personlig integritet.

Du har foliehatt. Denna text gör att man känner sig väldigt trygg med att de ej läcker information.
Dina konversationer behandlas av mänskliga granskare för att förbättra tekniken som driver Gemini-appar. Ange inte något som du inte vill ska granskas eller användas.

Det är väl just detta anledningen är att köra Ai lokalt för den stora skaran är. Men jag förstår inte riktigt varför man måste köra lokalt på sin egen dator, en arbetsplats borde kunna köpa en server som alla delar på. Samma med att ha desktopen hemma för privat bruk.
Väldigt många har sina laptop i väldigt längre idag, det kan dröja till långt över år 2030 innan folk har lite "vettig Ai prestanda" på sin laptop. Den som just idag köper en pc-laptop för 40 000kr, har ju liksom inte bra prestanda inom Ai.

Permalänk
Hedersmedlem
Skrivet av Dyluck:

Även RTX 4090 har relativt lite vRAM, 24GiB som bäst. Så fort datan spiller över så hjälper det massor att ha NPU-stöd.
Grok modellen som släpptes nyligen är 296.38GiB ungefär lika stor som ChatGPT-3, sägs vara INGET mot hur stor ChatGPT4 är.
GPT-2 var några GB, som vi minns var den riktigt kass.

Personligen ogillar jag tanken av att alla ska köra egna AI-modeller lokalt, lite som om alla hade en egen magnetröntgenmaskin hemma, den är bra att ha när den behövs, men är mer kostnadseffektivt om folk delar.

LLM är ett pay-to-win spel, där den som har bäst hårdvara vinner. Intressant video här https://www.youtube.com/watch?v=zjkBMFhNj_g
Lokala modellerna kommer alltid vara ruskigt sämre än någon som hostas på några hundra H100.

Jag ser väldigt mycket mervärde i att kunna köra det här lokalt. Det handlar både om dataitegritet för privatpersoner - och för företag som inte vill/inte får ge ut data. Så den här utvecklingen behövs verkligen.
Också.
Och att kunna vidareutveckla i den riktningen man själv önskar.

Med det sagt - det bör rimligen inte vara den enda lösningen. Men det lär det inte bli heller ;). Molnlösningarna lär fortsätta vara billigare, snabbare, mer utvecklade, enklare för slutanvändare.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Dyluck:

Även RTX 4090 har relativt lite vRAM, 24GiB som bäst. Så fort datan spiller över så hjälper det massor att ha NPU-stöd.
Grok modellen som släpptes nyligen är 296.38GiB ungefär lika stor som ChatGPT-3, sägs vara INGET mot hur stor ChatGPT4 är.
GPT-2 var några GB, som vi minns var den riktigt kass.

Personligen ogillar jag tanken av att alla ska köra egna AI-modeller lokalt, lite som om alla hade en egen magnetröntgenmaskin hemma, den är bra att ha när den behövs, men är mer kostnadseffektivt om folk delar.

LLM är ett pay-to-win spel, där den som har bäst hårdvara vinner. Intressant video här https://www.youtube.com/watch?v=zjkBMFhNj_g
Lokala modellerna kommer alltid vara ruskigt sämre än någon som hostas på några hundra H100.

Själv har jag provat med RTX 3090. Om man använder NVLINK, kommer man då nyttja 48GB vRAM? Inte för att det blir "billigt" men att köpa 2st beg 3090 kan vara en lösning (Usecaset jag tänker på är en mindre organisation som utvecklar mjukvara vill ha en lokal server för att säkra att inte data läcker. Annars är det svårt att motivera detta jämfört med att använda en cloudlösning som github co-pilot eller liknande).

Mvh
Anders

Permalänk
Medlem
Skrivet av Dyluck:

Lokala modellerna kommer alltid vara ruskigt sämre än någon som hostas på några hundra H100.

Det vi vill ha är ju distribuerad, skynet 2.0

Permalänk
Medlem

Undrar hur länge det kommer ta tills jag finner mig själv självmant använda AI, har fortfarande inte rört något AI-program man integrerar med då jag inte ser någon poäng med det.

Permalänk
Medlem

Har labbat en del med Private GPT. Mest med llama och Mistral och framförallt med embedding (prata med sina egna dokument). Jäkligt smidigt att ladda upp tio olika kollektivavtal, en lista på företag inom koncernen o deras yrkesroller och sen bara fråga om antal semesterdagar för anställd inom XY t.ex. Hade aldrig gått o köra på molnet pga gdpr.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3