Microsoft lägger hårdare systemkrav för Copilot

Permalänk
Melding Plague

Microsoft lägger hårdare systemkrav för Copilot

För en AI-dator att vara kompatibel med Copilot behövs mer primärminne och splitternya AI-krets.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Snygg dator. Men maxar den Copilot?

Visa signatur

Windows 11 Pro | Intel i7 8700 | ASUS Prime Z370-P | Corsair 16GB 3000MHz | ASUS GTX 1080 | Fractal Design Define S | Corsair RM750x | Hyper 212 EVO

Permalänk
Medlem

Är inte säker på vad jag tycker mer generellt, men antar att det är positivt med nya hårdvarukrav om det innebär att man tänker göra saker lokalt på användarens dator, inte enbart ser AI-andet som en ytterligare anledning att skicka in all användarens data till Microsoft.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Citat:

.."en AI-dator"

Ugh. Nu blev jag sådär trött och grinig.

On-topic: i vanlig ordning står Microsoft för den bästa reklamen för Linux som går att uppbringa. Heja!

Visa signatur

Fractal Define 7, Aorus X570 Xtreme, Ryzen 5950X, Fractal Celsius+ S36, 64GB TridentZ Neo CL14/3600 RAM, MSI RTX 3090 Suprim X, 5TB NVMe SSD + 12TB SATA SSD + 64TB Seagate IronWolf Pro HD, Fractal Ion+ 860W Platinum, LG 32GP850 + LG 42C2 OLED

Permalänk

Det var för mig förväntat.

Det jag funderar är om Ai kommer göra skillnaden mindre mellan nybörjare och de som kan lite mer eller tvärt om?

Ta en enkel sak som att gå igenom cadritningar och uppdatera en databas med denna information. Nybörjare idag gör ofta detta jobb manuellt, de som kan något skulle kunna göra ett script som gör samma sak. Problemet är att detta script ofta mer tid att skapa än att endast göra jobbet manuellt. Med lite Ai så kan fler personer göra detta script och utvecklingstiden blir kortare.

Så med Ai kan fler automatisera saker på en kortare utvecklingstid, det blir intressant att se hur utvecklingen blir. Kommer folk i lika hög grad göra uppgifter manuellt.

Permalänk
Medlem

Bra där, kanske blir ett bra hårdvarukrav för Windows 12?

Permalänk
Medlem

Najs!
Undrar om man någonsin i framtiden kommer kunna ha något som liknar ChatGPT fast helt lokalt... Krävs ju en hel del kräm...

Permalänk
Medlem
Skrivet av Chromatic:

Najs!
Undrar om man någonsin i framtiden kommer kunna ha något som liknar ChatGPT fast helt lokalt... Krävs ju en hel del kräm...

Undrar hur mycket som krävs för att *köra* det hela. De kör den ju centralt åt massor av folk, så det måste ju vara mer hanterbart.

Träningen däremot är ju en mardröm, men själva modellen skulle man ju kunna ladda ned färdig att användas.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av Chromatic:

Najs!
Undrar om man någonsin i framtiden kommer kunna ha något som liknar ChatGPT fast helt lokalt... Krävs ju en hel del kräm...

Skrivet av evil penguin:

Undrar hur mycket som krävs för att *köra* det hela. De kör den ju centralt åt massor av folk, så det måste ju vara mer hanterbart.

Träningen däremot är ju en mardröm, men själva modellen skulle man ju kunna ladda ned färdig att användas.

För att vidareutveckla ur ett annat perspektiv: Jag undrar till hur stor del det här att t.ex. ChatGPT tillhandahålls som en centraliserad tjänst är ett kopieringsskydd.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av Chromatic:

Najs!
Undrar om man någonsin i framtiden kommer kunna ha något som liknar ChatGPT fast helt lokalt... Krävs ju en hel del kräm...

Kan nog komma inom sinom tid, RISE har nyligen börjat rulla ut en GDPR säkrad GPT-4 variant med servrar i Sverige och flera säkerhetslager, vilket borde vara ett steg i rätt riktning.

Permalänk
Medlem
Skrivet av evil penguin:

Undrar hur mycket som krävs för att *köra* det hela. De kör den ju centralt åt massor av folk, så det måste ju vara mer hanterbart.

Träningen däremot är ju en mardröm, men själva modellen skulle man ju kunna ladda ned färdig att användas.

Är det inte det som är grejen här då?

Vi kör Windows på din dator, alltså äger vi den, alltså kan vi använda den för att träna våra modeller. Om du vill använda co-pilot så är du så illa tvungen att acceptera det och betala utrustningen och elräkningen åt oss.

Permalänk
Medlem

Internet AI är bara en fluga.

Visa signatur

Skriv jätteintressant information här.

Permalänk
Medlem
Skrivet av evil penguin:

Undrar hur mycket som krävs för att *köra* det hela. De kör den ju centralt åt massor av folk, så det måste ju vara mer hanterbart.

Träningen däremot är ju en mardröm, men själva modellen skulle man ju kunna ladda ned färdig att användas.

Skrivet av evil penguin:

För att vidareutveckla ur ett annat perspektiv: Jag undrar till hur stor del det här att t.ex. ChatGPT tillhandahålls som en centraliserad tjänst är ett kopieringsskydd.

Skrivet av MsSmith:

Kan nog komma inom sinom tid, RISE har nyligen börjat rulla ut en GDPR säkrad GPT-4 variant med servrar i Sverige och flera säkerhetslager, vilket borde vara ett steg i rätt riktning.

Ja det är sjukt intressant, träningen är ju galet intensiv precis som ni säger, men sedan behöver den ju bara prata med en person, inte flera miljoner, så det borde ju ta ner hårdvarukraven lite.

Permalänk
Medlem
Skrivet av Chromatic:

Najs!
Undrar om man någonsin i framtiden kommer kunna ha något som liknar ChatGPT fast helt lokalt... Krävs ju en hel del kräm...

Det finns redan. Många som säger att de bästa öppet tillgängliga modellerna nu matchar GPT3.5 som är den som används i gratis-varianten av ChatGPT. Jag vet inte exakt vad som krävs, men gissar att 128 GB RAM och ett 4090 är en bra början iaf, alternativt kanske en M3-Max eller M2-Ultra med mycket RAM. Så om några år kommer det gissningsvis gå att köra på en genomsnittlig entusiast-dator.

Men vid den tiden kommer säkert GPT3.5-nivå vara hopplöst utdaterat och folk kommer istället vilja ha GPT7-nivå och kommer undra hur vi någonsin kunde leva våra liv med bara GPT3.5.

Permalänk
Medlem
Skrivet av Chromatic:

Najs!
Undrar om man någonsin i framtiden kommer kunna ha något som liknar ChatGPT fast helt lokalt... Krävs ju en hel del kräm...

Det....det kan du idag.

Llama-2 kör väl med runt 200ms per respons på ett modernt grafikkort så det är inte direkt någon long and distans future.

Och då har vi inte ens touchat på TPUer

Visa signatur

Krusidullen är stulen

Permalänk
Medlem
Skrivet av KAD:

Är det inte det som är grejen här då?

Vi kör Windows på din dator, alltså äger vi den, alltså kan vi använda den för att träna våra modeller. Om du vill använda co-pilot så är du så illa tvungen att acceptera det och betala utrustningen och elräkningen åt oss.

Där satt den

Permalänk
Medlem
Skrivet av trudelutt:

Det finns redan. Många som säger att de bästa öppet tillgängliga modellerna nu matchar GPT3.5 som är den som används i gratis-varianten av ChatGPT. Jag vet inte exakt vad som krävs, men gissar att 128 GB RAM och ett 4090 är en bra början iaf, alternativt kanske en M3-Max eller M2-Ultra med mycket RAM. Så om några år kommer det gissningsvis gå att köra på en genomsnittlig entusiast-dator.

Men vid den tiden kommer säkert GPT3.5-nivå vara hopplöst utdaterat och folk kommer istället vilja ha GPT7-nivå och kommer undra hur vi någonsin kunde leva våra liv med bara GPT3.5.

Skrivet av SuperSverker:

Det....det kan du idag.

Llama-2 kör väl med runt 200ms per respons på ett modernt grafikkort så det är inte direkt någon long and distans future.

Och då har vi inte ens touchat på TPUer

Jaså! Vad kul att det går med dagens hårdvara, jag trodde definitivt att det skulle kräva mycket mera kräm!

Permalänk
Medlem
Skrivet av Chromatic:

Najs!
Undrar om man någonsin i framtiden kommer kunna ha något som liknar ChatGPT fast helt lokalt... Krävs ju en hel del kräm...

Färdiga modeller finns redan att ladda ner lokalt. Kräver inte allt för mycket av din dator mer än minne. Att träna en modell däremot...

Googla bara run GPT locally för att se några olika varianter att leka med.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av talonmas:

Färdiga modeller finns redan att ladda ner lokalt. Kräver inte allt för mycket av din dator mer än minne. Att träna en modell däremot...

Googla bara run GPT locally för att se några olika varianter att leka med.

Fan va najs! Skulle vara guld värt att koppla in den i en Alexa-liknande produkt, kan sitta och föra samtal i timmar xD

Permalänk
Medlem

Kan inte tolka "starkare primärminne" som något annat än snabbare (fler MHz, lägre latenser). Tänkte att det äntligen kommer något real-life som faktiskt gynnas av snabbare minne, men artikeln nämner bara mängden. Vart lite besviken.

Permalänk
Medlem

Ingen kommer kalla sin nya laptop för ai-dator

Permalänk
Medlem

Om jag läste rätt så har 2060 super 57 TOPs, så inte galna krav direkt

Permalänk
Medlem
Skrivet av MsSmith:

Bra där, kanske blir ett bra hårdvarukrav för Windows 12?

Precis vad jag tänkte. Är det vad man ska förvänta sig av nya Windows...vad nu det kan tänkas heta.

Permalänk
Medlem

Stämmer det här så var det inga bra nyheter! Knappt att jag hunnit ta i bruk min 15 Pro Max innan den är otillräcklig. Hur kan man mena att 35 TOPS inte räcker till!! Nåja den har också endast 8GB LPDDR5.

Det blir att invänta och se hur de här Snapdragon X Elite presterar innan jag kan dra några slutsatser.

Vad PC:n beträffar borde jag åtminstone kunna återanvända mina 2x32GB DDR5-6200MHz minnen. Tekniken går snabbt framåt nu.

Permalänk
Medlem
Skrivet av medbor:

Om jag läste rätt så har 2060 super 57 TOPs, så inte galna krav direkt

På ett sätt nej, men ändå ganska tungt om det då innebär att systemkraven för att "Clippy 2.0" ska lira bra innebär ca 70% last på ett 2060 Super.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk

Dum fråga, kan man ha en dator utan AI-accelerator (NPU) och använda ett vanligt grafikkort (GPU) i stället? Var hittar man i så fall vilka vanliga grafikkort som klarar detta krav?

Permalänk
Medlem
Skrivet av spiderweb:

Dum fråga, kan man ha en dator utan AI-accelerator (NPU) och använda ett vanligt grafikkort (GPU) i stället? Var hittar man i så fall vilka vanliga grafikkort som klarar detta krav?

Som jag skrev ovan, 2060 borde räcka fint i teorin

Oklart hur de räknar/mäter dock

Permalänk
Skrivet av medbor:

Som jag skrev ovan, 2060 borde räcka fint i teorin

Oklart hur de räknar/mäter dock

Kollade lite med chat-GPT. Nvidia GeForce RTX2060 Super och många andra grafikkort har AI-accelerator inbyggt, vilket jag inte visste. Dess NPU/TPU prestanda är som du skrev 57 TOPS (antagligen 16 bitars flyttal) och GPU-prestanda är 14 TFLOPS (16 bitars flyttal) eller 7 TFLOPS (32 bitars flyttal). Skulle vara intressant och se en tabell med de grafikkort som har 40 TOPS eller bättre, vad de kostar och vilken effekt (Watt) de har.

Permalänk
Medlem
Skrivet av spiderweb:

Kollade lite med chat-GPT. Nvidia GeForce RTX2060 Super och många andra grafikkort har AI-accelerator inbyggt, vilket jag inte visste. Dess NPU/TPU prestanda är som du skrev 57 TOPS (antagligen 16 bitars flyttal) och GPU-prestanda är 14 TFLOPS (16 bitars flyttal) eller 7 TFLOPS (32 bitars flyttal). Skulle vara intressant och se en tabell med de grafikkort som har 40 TOPS eller bättre, vad de kostar och vilken effekt (Watt) de har.

Hela 2000-serien
3000-serien (3050 oklart)
Hela 4000-serien

Sen kanske det finns någon ren GPU som har liknande prestanda men har misslyckats med min google-fu idag

Permalänk
Skrivet av medbor:

Hela 2000-serien
3000-serien (3050 oklart)
Hela 4000-serien

Sen kanske det finns någon ren GPU som har liknande prestanda men har misslyckats med min google-fu idag

Lyckades till slut få svar från en annan AI (GPT4-baserad tror jag) om grafikkort i olika prislägen och dess AI- och GPU-prestanda. Verkar lite halvgammal och den är inte helt korrekt när jag gjorde stickprov, men man kan kanske få en uppfattning? Ser ut som man måste ha ett 3070 eller bättre för att klara 40 TOPS.

Graphics Card AI Performance (TOPS) GPU Performance (TFLOPS) Price Power Consumption (Watts)
NVIDIA A100 312.0 19.5 $9,999 400
NVIDIA A40 320.0 20.0 $9,999 300
NVIDIA A30 77.8 4.9 $1,499 165
NVIDIA RTX 3090 69.0 35.6 $1,499 350
NVIDIA RTX 3080 58.0 29.8 $699 320
NVIDIA RTX 3070 45.0 20.3 $499 220
NVIDIA RTX 3060 25.0 12.7 $329 170
AMD Radeon RX 6900 XT 23.0 23.0 $999 300
AMD Radeon RX 6800 XT 20.7 20.7 $649 300
AMD Radeon RX 6700 XT 13.2 13.2 $479 230