Fler kör AI på jobbet, men skäms för att erkänna det

Permalänk
Melding Plague

Fler kör AI på jobbet, men skäms för att erkänna det

Tydlig trend för fenomenet "BYOAI" i alla ålderskategorier visar Microsofts senaste undersökning.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem
Skrivet av Nyhet:

Tydlig trend för fenomenet "BYOAI"

Permalänk
Medlem

Min favorit:
https://www.duckduckgo.com/chatai/

Använder själv främst AI för kodexempel och översättningar/sammanfattningar.

Permalänk
Medlem

Skriver folk ChatGPT som en skill/kompetens på Linkan? Det är lite som att skriva vilken webbläsare och sökmotor man kan? 🧐

Permalänk

Hur bör man marknadsföra faktumet att man använder chatGPT & Copilot bland annat som Webbutvecklare så att rekryterare upplever att man använder dem "rätt"? 🤔

Själv använder jag chatGPT3.5 och endast kod där jag förstår den och rätt ofta skriver jag om småsaker. Den ger mig snabba utkast lite som "brainstorming" - inte zombieaktig "copy n' paste & set n' forget". Jag funderar på att investera i ett 4090 för att bygga ihop egen lokal Ollama-server med fria kodbaserade datamodeller då jag tror dessa kommer att få bättre uppdaterade versioner med tiden.

Mvh,
WKL.

Visa signatur

"Den säkraste koden är den som aldrig skrivs"

Permalänk
Medlem
Skrivet av WebbkodsLärlingen:

Hur bör man marknadsföra faktumet att man använder chatGPT & Copilot bland annat som Webbutvecklare så att rekryterare upplever att man använder dem "rätt"? 🤔

Själv använder jag chatGPT3.5 och endast kod där jag förstår den och rätt ofta skriver jag om småsaker. Den ger mig snabba utkast lite som "brainstorming" - inte zombieaktig "copy n' paste & set n' forget". Jag funderar på att investera i ett 4090 för att bygga ihop egen lokal Ollama-server med fria kodbaserade datamodeller då jag tror dessa kommer att få bättre uppdaterade versioner med tiden.

Mvh,
WKL.

Jag drömmer om att sätta upp en hemmaserver som jag kan mata med relevant information för att få med mig rätt kunskap. I bästa fall kan jag övertyga jobbet om att köpa in hårdvara, men annars har jag en fallback:) Måste lära mig att få till alla kopplingar programmeringsmässigt, bara:(

Permalänk

Trams. Jag hade en kollega som ville använda internet på jobbet, jag vet inte hur det gick för honom. Men jag ser han ej längre här i Sörbäcken (från Leif och Billy) så det gick nog dåligt.

Problemet med Ai på jobb är 2 saker. Informationssäkerhet och sedan att man just ofta får ett svar som är tveksamt om det är bättre än det man får på en googlesökning. Detta kommer självklart förändras.
Många pratar om verktyg som gör diverse verktyg som bearbetar datan direkt i. Detta är väldigt känsligt och jag låter andra vara försökskaniner innan jag ens funderar frågar kunder om de tillåter detta.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Trams. Jag hade en kollega som ville använda internet på jobbet, jag vet inte hur det gick för honom. Men jag ser han ej längre i Sörbäcken (från Leif och Billy) så det gick nog dåligt.

Problemet med Ai på jobb är 2 saker. Informationssäkerhet och sedan att man just ofta får ett svar som är tveksamt om det är bättre än det man får på en googlesökning. Detta kommer självklart förändras.

Jag håller med, men samtidigt ska vi vara medvetna att Google idag är skräp jämfört med tidigare (knappt användbart för min del)

Visa signatur

Krusidullen är stulen

Permalänk
Skrivet av Gruarn:

Jag drömmer om att sätta upp en hemmaserver som jag kan mata med relevant information för att få med mig rätt kunskap. I bästa fall kan jag övertyga jobbet om att köpa in hårdvara, men annars har jag en fallback:) Måste lära mig att få till alla kopplingar programmeringsmässigt, bara:(

För själva mjukvarukonfigurationen tänkte jag följa denna mycket passionerade nätverksnisses videoguide:

Han kör dock 2st 4090s och 128 GB ram och 7950X... Men visade också upp när det kördes på ett 3080. Vet ej vad just RAM-minne gör för skillnad? Jag vet att videominne behövs för jag har använt Stable Diffusion.

Vad jag sett så ska det finnas extensions i bland annat VSCode för att sedan koppla din privata Ollama-server så att du får en "budget-Copilot" utan att pröjsa för det! (förutom elräkningen som får jämföras mot månadspriset)

Jag tänker att chatGPT3.5 snart kanske kommer att kosta pengar och/eller förbjudas inom EU av okända skäl (t.ex. Claude AI är ej tillgängligt i EU). Så då tänker jag att man kan förbereda att ha någon backup i värsta fall. Sedan är det ju skönt med mer privatliv!

Mvh,
WKL.

Visa signatur

"Den säkraste koden är den som aldrig skrivs"

Permalänk
Skrivet av WebbkodsLärlingen:

För själva mjukvarukonfigurationen tänkte jag följa denna mycket passionerade nätverksnisses videoguide:
https://www.youtube.com/watch?v=Wjrdr0NU4Sk

Han kör dock 2st 4090s och 128 GB ram och 7950X... Men visade också upp när det kördes på ett 3080. Vet ej vad just RAM-minne gör för skillnad? Jag vet att videominne behövs för jag har använt Stable Diffusion.

Vad jag sett så ska det finnas extensions i bland annat VSCode för att sedan koppla din privata Ollama-server så att du får en "budget-Copilot" utan att pröjsa för det! (förutom elräkningen som får jämföras mot månadspriset)

Jag tänker att chatGPT3.5 snart kanske kommer att kosta pengar och/eller förbjudas inom EU av okända skäl (t.ex. Claude AI är ej tillgängligt i EU). Så då tänker jag att man kan förbereda att ha någon backup i värsta fall. Sedan är det ju skönt med mer privatliv!

Mvh,
WKL.

Jag funderar på att allt fler företag kommer sätta upp egna LLM? Kanske separata dem för olika kunder?
För mig känns det självklart att nästan alla i framtiden kommer använda Ai i jobbet på något sätt, väldigt otydligt för mig är dock på vilket sätt.

Permalänk
Medlem
Skrivet av Baxtex:

Skriver folk ChatGPT som en skill/kompetens på Linkan? Det är lite som att skriva vilken webbläsare och sökmotor man kan? 🧐

Jag tror att man mer skriver det för att signalera att man är positiv till att använda AI.

Många målar ju upp AI som djävulen själv och svär att aldrig använda det och sådana personer vill kanske företag undvika.

Permalänk
Skrivet av lillaankan_i_dammen:

Jag funderar på att allt fler företag kommer sätta upp egna LLM? Kanske separata dem för olika kunder?
För mig känns det självklart att nästan alla i framtiden kommer använda Ai i jobbet på något sätt, väldigt otydligt för mig är dock på vilket sätt.

Vissa företag vill säkert använda LLM:s och RAG-implementeringar för att hämta exempelvis kunddata eller något annat ur någon företagsdatabank som de tränat diverse egna LLM:s på. Nuvarande LLM:s är ju lite av "Avancerad automatisk textifyllning" och om de då tränats på interna affärsdata så kan de agera lite som interna sökmotorer åt företagen tänker jag.

Mvh,
WKL.

Visa signatur

"Den säkraste koden är den som aldrig skrivs"

Permalänk
Medlem
Skrivet av Baxtex:

Skriver folk ChatGPT som en skill/kompetens på Linkan? Det är lite som att skriva vilken webbläsare och sökmotor man kan? 🧐

Frågan är förstås vad de avser när de skriver detta som en kompetens de besitter. Det finns absolut saker att kunna och förstå som inte är intuitiva och som inte är närmelsevis lika utbredda kompetenser som att vara åtminstone okej på att söka...

Skrivet av Hejss:

Jag tror att man mer skriver det för att signalera att man är positiv till att använda AI.

Många målar ju upp AI som djävulen själv och svär att aldrig använda det och sådana personer vill kanske företag undvika.

Så kan det också vara, och oavsett om det är avsikten så fyller det ju den funktionen iaf.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av WebbkodsLärlingen:

För själva mjukvarukonfigurationen tänkte jag följa denna mycket passionerade nätverksnisses videoguide:
https://www.youtube.com/watch?v=Wjrdr0NU4Sk

Han kör dock 2st 4090s och 128 GB ram och 7950X... Men visade också upp när det kördes på ett 3080. Vet ej vad just RAM-minne gör för skillnad? Jag vet att videominne behövs för jag har använt Stable Diffusion.

Vad jag sett så ska det finnas extensions i bland annat VSCode för att sedan koppla din privata Ollama-server så att du får en "budget-Copilot" utan att pröjsa för det! (förutom elräkningen som får jämföras mot månadspriset)

Jag tänker att chatGPT3.5 snart kanske kommer att kosta pengar och/eller förbjudas inom EU av okända skäl (t.ex. Claude AI är ej tillgängligt i EU). Så då tänker jag att man kan förbereda att ha någon backup i värsta fall. Sedan är det ju skönt med mer privatliv!

Mvh,
WKL.

Vilken turbotunga! Nästan så jag funderade på att sänka hastigheten:D Men väldigt intressant! Kommer att prövas!

Permalänk
Medlem
Skrivet av Baxtex:

Skriver folk ChatGPT som en skill/kompetens på Linkan? Det är lite som att skriva vilken webbläsare och sökmotor man kan? 🧐

Inte alls, dem som använder AI som vi gjort i evigheter med sökmotorer kommer få sämre träffar än med en sökmotor..

Att lära sig att använda AI kommer vara en skill ett bra tag framöver..

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win10Pro | i7-3770K | Hyper212+ SP120PWM | P8P67 PRO | CML8GX3M2A1600C9 | 1080 Ti | AX750 | Asus VG27WQ | Eizo S2100 | HP Z24n |► OnePlus 6 |

Permalänk
Skrivet av Baxtex:

Skriver folk ChatGPT som en skill/kompetens på Linkan? Det är lite som att skriva vilken webbläsare och sökmotor man kan? 🧐

Det är jättebra om de skriver att de kan använda ChatGPT, läst programmering 1 på gymnasiet etc på sitt CV/LinkedIn, det ger värdefull information om deras kompetensnivå...

Utvecklingen går fort framåt och om +20 år kanske alla IT folk bör nämna vilka Ai tekniker de använder. Och den som säger inga, den är i samma nivå som den personen som säger versionshanterare är trams. Vi som vet vad vi håller på med behöver ej sådant.

Permalänk
Medlem
Skrivet av Baxtex:

Skriver folk ChatGPT som en skill/kompetens på Linkan? Det är lite som att skriva vilken webbläsare och sökmotor man kan? 🧐

Nja inte riktigt. Att skriva bra prompts är ingen självklarhet. Dumma frågor ger dumma svar även inom LLMs.

Permalänk
Medlem

Om ni jobbar med IT så är mitt tips att lära er om AI. På så sätt är det ni som är med och implementerar förändringen istället för att bli ersatta

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av Baxtex:

Skriver folk ChatGPT som en skill/kompetens på Linkan? Det är lite som att skriva vilken webbläsare och sökmotor man kan? 🧐

Det är en viss skill, så jag ger dem halvrätt men holy fuck. Det är "Jag kan googla lite bättre än du" :/

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Problemet med Ai på jobb är 2 saker. Informationssäkerhet och sedan att man just ofta får ett svar som är tveksamt om det är bättre än det man får på en googlesökning. Detta kommer självklart förändras.
Många pratar om verktyg som gör diverse verktyg som bearbetar datan direkt i. Detta är väldigt känsligt och jag låter andra vara försökskaniner innan jag ens funderar frågar kunder om de tillåter detta.

Informationssäkerheten är just den stora OM här, många företag förbjuder ju detta (mitt likaså)för att man inte vet hur datalagringen sker och delas beroende på vad man matar in.
AI såsom chat gpt eller duckduckAI hade funkat kanon för att dra ner på stora textstycken och sammanfatta just det viktigaste. Såsom typ i en upphandling med sidor och sidor av texter och krav.
Har provat detta själva på offentliga upphandlingar utanför arbetet och vart imponerad faktiskt. 35 sidor upphandling gick ner till 18st sidor där allt relevant var med. Sparar en hel del tid!

Permalänk
Sötast
Skrivet av Baxtex:

Skriver folk ChatGPT som en skill/kompetens på Linkan? Det är lite som att skriva vilken webbläsare och sökmotor man kan? 🧐

Är ju knappast ovanligt att rekryterare och upper management är 100% clueless när det kommer till teknik.
De hör ett häftigt ord som brukar dyka upp i media.... nvidia pratar om miljarder i vinst och TADA! Klart vi ska ha AI också! Vi kommer bli miljardärer woho!

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Jag funderar på att allt fler företag kommer sätta upp egna LLM? Kanske separata dem för olika kunder?
För mig känns det självklart att nästan alla i framtiden kommer använda Ai i jobbet på något sätt, väldigt otydligt för mig är dock på vilket sätt.

Vi har en egen på jobbet. Dock suger den.

Permalänk
Medlem
Skrivet av Hejss:

Många målar ju upp AI som djävulen själv och svär att aldrig använda det och sådana personer vill kanske företag undvika.

Jag tror företag kommer undvika det i lika stor utsträckning som man undviker någon som säger sig vilja komma in och frälsa hela organisationen med AI.

Just det har ingenting med AI att göra, men vi hade en person som kom utifrån, utan någon insyn i våran verksamhet, och sa sig vilja komma in och hjälpa oss, ”till det facila priset av 1000kr/h på löpande faktura, + bil/dator/telefon..”

AI har ju blivit ett så meningslöst begrepp att det knappt betyder någonting längre, men ett stort problem är att även om AI så som vi pratar om det idag kan spela en roll i en organisation, så är det ändå ett tämligen snävt användningsområde inom nästan alla organisationer, och det gör det nästan omöjligt att implementera.

Och kostnadsmässigt är det ju så redan nu att AI implementeras på ”lånade pengar”, och när det ska bära sina egna kostnader, så blir det ohållbart.

Skrivet av Archibald:

Nja inte riktigt. Att skriva bra prompts är ingen självklarhet. Dumma frågor ger dumma svar även inom LLMs.

Men är inte det där väldigt motsägelsefullt?
Du säger ju indirekt att AI är ”ingenting”. Samma sak gäller med allt, en ”dum” person ger dumma resultat, alldeles oavsett.

En dum förare resulterar i dum körning.

Var inte hela grejen med AI att det inte skulle vara så?

Ska du komma in och sälja AI till mitt företag så måste du ju kunna påvisa att vi kan höja produktiviteten med den personal vi har, med varierande intelligens, och att den höjningen är större än kostnaden för satsningen.

Det finns ingenting som visar på det idag.

Skrivet av mattera:

Har provat detta själva på offentliga upphandlingar utanför arbetet och vart imponerad faktiskt. 35 sidor upphandling gick ner till 18st sidor där allt relevant var med. Sparar en hel del tid!

Så du vann upphandlingen?

När det gäller själva ”nyheten”/artikeln så handlar det såklart till 100% om att Microsoft vill sälja ”AI”.
Släpp en nyhet om att alla (andra) inom IT vill ha AI (fomo osv.) men att det är osäkert med nuvarande lösningar.
Och som av en händelse så säljer Microsoft AI-lösningar.
Men det är ju vad det är.

Permalänk

Problemet med Microsofts statistik i artikeln är att den inte säger ett dyft. Självklart vill jag ha fungerande LLM:er. Självklart provar jag LLM:er som ett av mina verktyg parallellt med webbsök via DDG. Men för de uppgifter som landar på mitt bord och där jag skulle behöva deras hjälp suger de: de uppgifter jag behöver hjälp med är inte sällan undantagsfall som kräver att man läser manualen eller pusslar ihop slutsatsen av faktabitar som nämns i bisatser i fyra till synes orelaterade inlägg på Serverfault.
Vi har tillgång till (och uppmanas använda) CoPilot på jobbet, och hittills är det bara banala frågor jag fått vettiga svar på. Det kanske skulle se annorlunda ut om jag faktiskt gav LLM:en några handböcker att läsa, men jag gissar att det skulle kunna tas som ett copyrightbrott om jag gjorde det. 🙄

Permalänk
Medlem
Skrivet av WebbkodsLärlingen:

För själva mjukvarukonfigurationen tänkte jag följa denna mycket passionerade nätverksnisses videoguide:
https://www.youtube.com/watch?v=Wjrdr0NU4Sk

Han kör dock 2st 4090s och 128 GB ram och 7950X... Men visade också upp när det kördes på ett 3080. Vet ej vad just RAM-minne gör för skillnad? Jag vet att videominne behövs för jag har använt Stable Diffusion.

Vad jag sett så ska det finnas extensions i bland annat VSCode för att sedan koppla din privata Ollama-server så att du får en "budget-Copilot" utan att pröjsa för det! (förutom elräkningen som får jämföras mot månadspriset)

Jag tänker att chatGPT3.5 snart kanske kommer att kosta pengar och/eller förbjudas inom EU av okända skäl (t.ex. Claude AI är ej tillgängligt i EU). Så då tänker jag att man kan förbereda att ha någon backup i värsta fall. Sedan är det ju skönt med mer privatliv!

Mvh,
WKL.

i VS Code installerar man t.ex extensionen "Continue" (https://www.continue.dev/), då kan du använda din lokala LLM i din development env. För att generera bättre kod däremot så behöver du rätt bra modeller och en rätt stor context.

Min Mac Studio med 32GB RAM/VRAM räcker inte till VRAM-mässigt för att få de större modellerna som behövs för att generera vettig kod. 4x7B Q4 (tar väl 24-26GB VRAM) som Mixtral får jag plats med tillräckligt hög token/s inference men kodgenereringen är kass tycker jag. (Så små modellerna är inte jag tillräckligt bra för kodkomplettering tycker jag).

Behöver iaf få plats med större modeller som kräver lite mer VRAM. Nästa Mac Studio jag köper ska iaf ha 128GB VRAM/RAM. Och mixar man vram och ram i en vanlig dator får man en alldeles för dålig prestanda (inference) på de större modellerna för att det ska vara användbart. Men däremot kan man sätta upp hela sin config och testa att se om det skulle fungera och köpa sig några större datacenter-kort eller t.ex en mac med mer vram.

Deepseek Coder, Codellama och Wizardcoder är väl de populära modellerna för kod som får plats i en vanlig gamingdata, tycker man om att rätta andras kod så kan man ju använda dessa hela dagarna
Men det händer sjukt mycket runt detta hela tiden, och nu under våren med llama3 och andra saker som dyker upp så sprutar det ut nya modeller hela tiden.

Edit: Om syftet är att lära sig är det en imo bra väg att gå.

Permalänk

Har en hel del AI i leveranser till kunder, efterfrågas överallt. Stora organisationer, regioner osv, direkt in i erp. Huvudsakligen ms privata copilot-instanser.
Det är ju för dataanalys i första syftet.

Men rent generellt, att träna på hur man skriver frågor till AI är en konst, det är inte samma som att googla.Och svaren varierar såklart, men det blir snabbt bättre och bättre.

Visa signatur

På tok för många datorer för att skriva här

Permalänk
Medlem
Skrivet av talonmas:

Om ni jobbar med IT så är mitt tips att lära er om AI. På så sätt är det ni som är med och implementerar förändringen istället för att bli ersatta

Även om jag inte tror att man blir ersatt i första taget (om man inte idag gör något som redan indier kan ta över när som helst).
Så tror jag det är rätt mycket värt att lära sig LLM och eventuellt bildgenerering som StableDiffusion för att förstå vad som händer.
Ju längre man väntar ju större kommer steget bli att lära sig.

Permalänk
Skrivet av Det Otroliga Åbäket:

Problemet med Microsofts statistik i artikeln är att den inte säger ett dyft. Självklart vill jag ha fungerande LLM:er. Självklart provar jag LLM:er som ett av mina verktyg parallellt med webbsök via DDG. Men för de uppgifter som landar på mitt bord och där jag skulle behöva deras hjälp suger de: de uppgifter jag behöver hjälp med är inte sällan undantagsfall som kräver att man läser manualen eller pusslar ihop slutsatsen av faktabitar som nämns i bisatser i fyra till synes orelaterade inlägg på Serverfault.
Vi har tillgång till (och uppmanas använda) CoPilot på jobbet, och hittills är det bara banala frågor jag fått vettiga svar på. Det kanske skulle se annorlunda ut om jag faktiskt gav LLM:en några handböcker att läsa, men jag gissar att det skulle kunna tas som ett copyrightbrott om jag gjorde det. 🙄

Bra skrivit.

LLM hjälper de flesta, men de kräver lite tid, extra mycket tid om man måste vara otroligt restriktiv med den information den får.. Och om slutresultatet blir sämre och tar med tid än de andra alternativ man har, så blir LLM inget bra val.

För min egen del handlar det om att jag ofta inte har några enkla frågor, när jag har detta så hittar jag svaret ofta på första Googleträffen. Jag skulle då behöva lägga ner väldigt mycket tid för att ge LLM frågan utan att lämna information och sedan får man som sagt ett sämre resultat än vad man hade gjort manuellt.

Det som behövs är:

1: Säkrare LLM: Kund har en egen LLM och säger denna är säker, du kan ställa precis samma frågor till denna som du hade kunnat frågat oss..
2: Bättre LLM: Som kan ge en bra svar även med mindre arbete in till den

Permalänk
Medlem

Använder det varenda dag på jobbet.
Hela mitt företag satsar stort på det för det är framtiden. Den som inte använder det kommer bli omspringd och efterlämnad och till sist få sparken för att de inte är effektiva.

Permalänk
Medlem

Har aldrig använt AI vare sig på jobbet eller privat. Tänkte testa chatgpt en gång men då de ville att jag skulle skapa ett konto så fick det vara. Kan tänka mig prova om det finns någon anonym och ocensurerad tjänst som kan "tänka fritt". Eller så installerar jag något som man kan köra lokalt och träna upp själv.

Hittills har jag klarat mig bra på jobbet utan att fuska med AI. Förstår inte varför jag skulle behöva det heller.