Nu kan du köra AI-bot lokalt på Nvidias RTX-grafikkort

Permalänk
Melding Plague

Nu kan du köra AI-bot lokalt på Nvidias RTX-grafikkort

"Chat with RTX" är tillgänglig i betastadiet just nu och är helt textbaserad.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Använder gpt4all.io för lokala körningar. Då slipper man låsa in sig till nvidias programvara.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem

Om en har Två RTX kort kan de prata med varandra då?
Så vi slipper...

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win10Pro | i7-3770K | Hyper212+ SP120PWM | P8P67 PRO | CML8GX3M2A1600C9 | 1080 Ti | AX750 | Asus VG27WQ | Eizo S2100 | HP Z24n |► OnePlus 6 |

Permalänk
Medlem

Det här har man kunna göra länge rätt ghetto, men att paketera det så här är grymt för att privacy till en större skala. Ingen data läcker enheten. Du kan låta den veta mer om dig utan att den datan åker iväg till ett privat företag i USA. Kommer öppna upp för så mycket fler användningsområden.

Såsmåningom så har varenda enhet små och effektiva språkmodeller snarare än enbart enorma cloudvarianter. Intel, AMD, iPhone, Samsung osv ska alla komma med enheter som har egna NPUs (neural processing units, processorer för AI-uppgifter), så det blir spännande att följa utvecklingen.

Visa signatur

SLI Titan X - i7 5960x 8-kärnig - Asus Rampage V - 32 GB Corsair Dominator - Intel 750 2200 MB/s Pcie-disk.

Permalänk
Hedersmedlem
Skrivet av Njure:

Det här har man kunna göra länge rätt ghetto, men att paketera det så här är grymt för att privacy till en större skala. Ingen data läcker enheten. Du kan låta den veta mer om dig utan att den datan åker iväg till ett privat företag i USA. Kommer öppna upp för så mycket fler användningsområden.

Såsmåningom så har varenda enhet små och effektiva språkmodeller snarare än enbart enorma cloudvarianter. Intel, AMD, iPhone, Samsung osv ska alla komma med enheter som har egna NPUs (neural processing units, processorer för AI-uppgifter), så det blir spännande att följa utvecklingen.

Jo, det här är klart mycket bättre ur integritetssynpunkt än att används molntjänster på det, även att det går att träna på lokal data utan att skicka upp det till en molntjänst, men jag tror knappast att motivationen för Nvidia är att skydda användarnas integritet (även om det är effekten) utan att sälja fler RTX-kort.

Synd att jag inte kommer kunna testa detta dock eftersom det här verkar vara endast för Windows.

Permalänk

Tänk vad många som kommer bli dumpade idag på att deras partner istället väljer att umgås och prata med deras Nvidia RTX.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Tänk vad många som kommer bli dumpade idag på att deras partner istället väljer att umgås och prata med deras Nvidia RTX.

En skräddarsydd ai-partner. Skulle inte förvåna mig om det blir väldigt vanligt i framtiden. Låter dystopiskt dock.

Visa signatur

Corsair 5000D | PRIME X670E-PRO | 7800X3D |
Kingston Fury Beast DDR5 2x16GB @6000MT/s CL30-40-40-28 | TUF RTX 4090 | 2 * 2TB WD Black SN850X PCI-E 4 |

Permalänk
Medlem

Blir nog absolut att testa den, kan bli ens perfekta "jarvis" om en matar den rätt

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sniglom:

Använder gpt4all.io för lokala körningar. Då slipper man låsa in sig till nvidias programvara.

Koolt! Men jämförelsevis säger de i princip att det är ca 8GB stora modeller som gäller och allt körs på CPU eller missförstår jag det?

BORDE inte en 35GB stor modell som körs på GPU vara bättre? På något eller några sätt.

Jag har bara kört OpenAIs molniga chatGPT så jag bara undrar

Visa signatur

i7-2700K 5 GHz | 16 GB DDR3-1600 | ASUS Maximus V Gene Z77 | GTX 980
i7-4790K 4.8 GHz | 32 GB DDR3-2133 | ASUS Maximus VII Gene Z97 | GTX 980

Permalänk
Medlem

Snacka med grafikkortet? Låter smått befängt utan vidare kontext.

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Medlem
Skrivet av jeppe109:

En skräddarsydd ai-partner. Skulle inte förvåna mig om det blir väldigt vanligt i framtiden. Låter dystopiskt dock.

Plasera sedan denna ai-partner i en robotiserad realdoll =o

Visa signatur

here we go!

Permalänk
Medlem

Är det nu man gör ett försök att börja göra en AI-backup av sig själv med grafikkortet?

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo

Never fade away...

Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av norrby89:

Plasera sedan denna ai-partner i en robotiserad realdoll =o

Där har vi en dystopisk framtid halva internet kan leva med, storbystade mördarrobotar.

Visa signatur

as it was in the beginning so it shall be in the end

Permalänk
Medlem
Skrivet av nidas:

Där har vi en dystopisk framtid halva internet kan leva med, storbystade mördarrobotar.

robot-domi-mommy

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem

Kommer den sno bilder å läsa ens sms på mobilen å skit också?

Permalänk
Medlem
Skrivet av norrby89:

Plasera sedan denna ai-partner i en robotiserad realdoll =o

Då återstår utmaningen hur den ska lära sig att diska.

Permalänk
Medlem
Skrivet av Dunde:

Då återstår utmaningen hur den ska lära sig att diska.

mata rätt pdf bara

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Permalänk
Medlem

Blev verkligen förvånad över hur många som inte verkar ha koll på vad det handlar om. Är detta verkligen ett teknikforum?

Permalänk
Medlem

Snart har vi alla lokal A.I flickvän som kommer vilja ha en kropp... låter som en film

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem
Skrivet av dblade:

Blev verkligen förvånad över hur många som inte verkar ha koll på vad det handlar om. Är detta verkligen ett teknikforum?

Precis som i resten av samhället så räcker det att läsa rubriken och dra sina egna slutsatser!

Eller så vill folk ha lite skoj bara

Permalänk
Medlem

Kört Stable Diffusion lokalt nu i några veckor. Alltså, det är ju svart magi i hur man får riktigt bra resultat än och kräver en hel del efterforskning, men fan så coolt det är! Tränade upp en snabb modell på mig själv och vips blev jag ninja-stålmannen med mycket bättre hårfäste än jag verkligen har.

En lokal text-AI som var lätt att hantera skulle jag vilja testa träna upp på diverse byggnadstekniska beskrivningar samt Boverkets Byggregler. Är rätt så säker på att AI kommer vara en grund för varenda ingenjör och projektör snart, som ersättning för alla idiotmallar man har idag.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av dblade:

Blev verkligen förvånad över hur många som inte verkar ha koll på vad det handlar om. Är detta verkligen ett teknikforum?

Teknik kommer i många former, tänker jag.

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win10Pro | i7-3770K | Hyper212+ SP120PWM | P8P67 PRO | CML8GX3M2A1600C9 | 1080 Ti | AX750 | Asus VG27WQ | Eizo S2100 | HP Z24n |► OnePlus 6 |

Permalänk

Inte testat än, men sitter på en 2080s som fungerar med mistral i ollama utan problem iom 8gb VRAM. Något unikt med detta eller speciellt att inte 20xx supportas?

Visa signatur

🎮 → 7800X3D • EVGA RTX 2080s • 64GB DDR5 • Asus B650 • Corsair HX1000i
🖥️ → Skärm: Iiyama G-Master GB3461 - 34" 21:9 144hz • 🥽 → VR: Oculus Quest 2
🎧 → Logitech G933 🖱️ → Corsair Sabre RGB | ⌨️ → Corsair K70 Lux

Permalänk
Medlem
Skrivet av jeppe109:

En skräddarsydd ai-partner. Skulle inte förvåna mig om det blir väldigt vanligt i framtiden. Låter dystopiskt dock.

Hellre det än att folk känner sig ensamma och övergivna.

Visa signatur

Hur många datorer är för många?

Permalänk

Har kört KoboldCPP och oobabooga med lokala modeller från huggingface ett tag nu, så kommer vara intressant att testa hur denna funka jämnfört med dem.

Visa signatur

|Dator: | Phantek P400S | Ryzen 5900X | X570 Aorus Elite | RTX 3080 Ventus OC | Corsair 64gb DDR4 | x2 970 EVO 1Tb | Corsair HX 850i | AC Liquid Freezer II 280 |

Permalänk
Medlem
Skrivet av heatm:

Kört Stable Diffusion lokalt nu i några veckor. Alltså, det är ju svart magi i hur man får riktigt bra resultat än och kräver en hel del efterforskning, men fan så coolt det är! Tränade upp en snabb modell på mig själv och vips blev jag ninja-stålmannen med mycket bättre hårfäste än jag verkligen har.

En lokal text-AI som var lätt att hantera skulle jag vilja testa träna upp på diverse byggnadstekniska beskrivningar samt Boverkets Byggregler. Är rätt så säker på att AI kommer vara en grund för varenda ingenjör och projektör snart, som ersättning för alla idiotmallar man har idag.

Hellre AI kommer att vara en grund till varenda projekt, som ersättning för alla idiot-ingenjör och idiot-projektör man har idag.

Permalänk
Medlem
Skrivet av Emomilol1213:

Inte testat än, men sitter på en 2080s som fungerar med mistral i ollama utan problem iom 8gb VRAM. Något unikt med detta eller speciellt att inte 20xx supportas?

Det ingår en Mistral 7B int4 och en Llama2 13B int4 modell i paketet. Det var väl hyfsad prestanda men jag tror jag sett liknande prestanda i ollama och de andra varianterna. Det märktes tyvärr att dom var för små för att vara praktiskt användbara till det jag använder dom till.

Permalänk
Medlem
Skrivet av Teddis:

Koolt! Men jämförelsevis säger de i princip att det är ca 8GB stora modeller som gäller och allt körs på CPU eller missförstår jag det?

BORDE inte en 35GB stor modell som körs på GPU vara bättre? På något eller några sätt.

Jag har bara kört OpenAIs molniga chatGPT så jag bara undrar

Du kan köra antingen på GPU eller på CPU med gpt4all.io. För att en modell ska kunna köras på GPUn måste du ha tillräckligt med VRAM och modellen är på ett format som kan gpu-accelereras. Annars blir det fallback till CPUn.

Du är inte låst till modellerna som finns på hemsidan. Hittar du en modell i GGUF-format är det bara att lägga in i rätt mapp och köra. När du letar upp egna modeller gäller det att välja rätt kvantifiering om den ska fungera på GPUn.

Angående 35GB stor modell så provkörde jag en 47GB stor modell på CPUn nyligen. Jag var nyfiken på hur mycket bättre en större modellen blev jämfört mot de mer komprimerade varianterna, samt hur långsamt det skulle gå.

Jag blev positivt förvånad, trodde det skulle vara betydligt långsammare på CPU än vad det var. Man får vänta någon minut eller två på ett längre svar, men för att provköra några enstaka frågor duger det fint.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Tänk vad många som kommer bli dumpade idag på att deras partner istället väljer att umgås och prata med deras Nvidia RTX.

Skrivet av jeppe109:

En skräddarsydd ai-partner. Skulle inte förvåna mig om det blir väldigt vanligt i framtiden. Låter dystopiskt dock.

Japan has entered the chat

Visa signatur

Krusidullen är stulen