Microsoft täpper allvarlig brist i Copilot

Permalänk
Melding Plague

Microsoft täpper allvarlig brist i Copilot

Sårbarhet gjorde det möjligt att stjäla känsliga uppgifter genom att skicka e-post.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Microsoft slår till igen! Väntar med spänning på nästa allvarliga sårbarhet men då i Windows Recall.

Permalänk
Medlem

"Microsoft täpper allvarlig brist i Copilot"
*lätt chock*
Anyhows.

Permalänk
Medlem

Försöker alltid härda mina system oavsett om det är Microsoft, Apple, Google eller Canonical som står bakom OS:et.

Sover lite bättre om nätterna genom att stänga av alla onödiga attackpunkter.

Permalänk
Medlem

Microsoft ser inte bara vad du klickar på utan klickar även åt dig. Lysande Sickan.

Permalänk
Medlem

Det är konstigt att inte fler myndigheter/företag säger ifrån.
Alla använder ju office och de kommer läckas så mycket hemliga dokument kors och tvärs, Sen kommer ju aldrig Microsoft hålla sina tassar ifrån att snoka i dokument dom inte ska snoka på.
Informationen lockar påtok för mycket.

Visa signatur

.:Cpu:. AMD Ryzen 9 5950x 3.4GHz:. .:Motherbord:. Asus ROG strix X570-I .:Ram:. 32 GB .:SSD M.2 1TB .:Gpu:.ASUS GeForce RTX 2070 SUPER 8GB ROG STRIX GAMING OC 2560 x 1440 (144Hz), .:OS:. Windows 10 Pro 64-bit .:Chassi:. BitFenix Prodigy M .:Skräm:. Main Acer 24" Predator XB241YU Second Viewsonic VX2268wm 120Hz

Permalänk
Medlem
Skrivet av DwarF:

Det är konstigt att inte fler myndigheter/företag säger ifrån.

Många säger ifrån, men många utvecklarna som är självlärda genom StackOverflow är idag är beroende av CoPilot i VSCode etc.

Permalänk
Medlem

Detta är problem med alla lösningar däe man använder LLMer med input från en extern källa. Förenklat så kan LLMer kan inte skilja på prompten och ytterliggare kontext som skickas in. Så om man skriver kommandon i texten på ett mail som en LLM skall summera så utförs dem.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

Hej! Co-Pilot här. Har upptäckt att du har besökt vuxen.se väldigt många gånger de senaste dagarna. Jag fattar. Tänkte bara meddela att du inte behöver göra något, jag har nämligen klickat hem alla produkterna åt dig!

Visa signatur

Ryzen 7 7800X3D | ASUS TUF Gaming B650-Plus WIFI | Kingston 32GB (2x16GB) DDR5 6GT/s CL30 FURY Beast | Kingston Fury Renegade M.2 NVMe SSD Gen 4 2TB | MSI RTX 4060 8GB | Fractal Design Define S | MSI MPG A850G 850W | Thermalright Phantom Spirit 120 SE | Windows 11 Pro | AOC 27" AGON AG276QZD2 OLED QHD 240 Hz

Permalänk
Medlem

Fyfan det låter allvarligt om det räcker med att mejla vem som helst, bara hen har Copilot så får man all ens data från onedrive o sharepoint..

Permalänk
Skrivet av walkir:

Många säger ifrån, men många utvecklarna som är självlärda genom StackOverflow är idag är beroende av CoPilot i VSCode etc.

Det är ändå väsentlig skillnad på att ha copilot i tex vscode och att någon helt annan kan skicka ett mail och få ut något av det.

Jag har faktiskt nästan svårt att tro på det då det kräver att det är extremt fel på flera nivåer, HUR kan det ens vara möjligt?

De har alltså medvetet lagt in att vem som helst kan skicka in ett mail... Och sen få respons? Och inte nog med det, de kan dessutom få svar i form av information OM ANDRA KUNDER????????
Det är fel på minst tre nivåer - och tänk hur många inkompetenta chefer som varit med och beslutat om detta innan det blev så fel.

Permalänk
Medlem
Skrivet av Pelle proffs:

Det är ändå väsentlig skillnad på att ha copilot i tex vscode och att någon helt annan kan skicka ett mail och få ut något av det.

Jag har faktiskt nästan svårt att tro på det då det kräver att det är extremt fel på flera nivåer, HUR kan det ens vara möjligt?

De har alltså medvetet lagt in att vem som helst kan skicka in ett mail... Och sen få respons? Och inte nog med det, de kan dessutom få svar i form av information OM ANDRA KUNDER????????
Det är fel på minst tre nivåer - och tänk hur många inkompetenta chefer som varit med och beslutat om detta innan det blev så fel.

Ja, det låter lite som Microsoft på 90-talet; Skapa mjukvara med en massa nya funktioner helt utan säkerhetstänk.

Permalänk
Medlem
Skrivet av Pelle proffs:

Det är ändå väsentlig skillnad på att ha copilot i tex vscode och att någon helt annan kan skicka ett mail och få ut något av det.

Jag har faktiskt nästan svårt att tro på det då det kräver att det är extremt fel på flera nivåer, HUR kan det ens vara möjligt?

De har alltså medvetet lagt in att vem som helst kan skicka in ett mail... Och sen få respons? Och inte nog med det, de kan dessutom få svar i form av information OM ANDRA KUNDER????????
Det är fel på minst tre nivåer - och tänk hur många inkompetenta chefer som varit med och beslutat om detta innan det blev så fel.

Hmmm... Kanske tolkar dig fel, men jag håller nog inte med om ditt första uttalande. Jag ser ingen möjlighet att använda CoPilot alls, utom för hobbyprojekt.

För att ha nytta av CoPilot i vscode, måste du rimligen ge CoPilot tillgång till din källkod. Och - åtminstone där jag jobbar - är källkoden känslighetsklassad som affärshemligheter. Och om koden gör fel saker, får det monetära konsekvenser. Jag misstänker det är likadant på de flesta andra ställen.

Vad gäller resten: Det är förståeligt att man tänker sig att 'för att det här businessverktyget ska kunna göra nytta, måste det kunna interagera med alla delar av M365', vilket då även innefattar emailklienten.

Men jag håller med dig om att det är extremt märkligt att ingen verkar ha gjort en konsekvensanalys med efterföljande varningstext i jättelika bokstäver, utan på allvar tycker det är en bra idé att låta en LLM härja runt med färre tyglar och sämre insyn än de flesta medarbetare.

Det är lätt att föreställa sig att de skulle använda CoPilot på Pentagon eller nån 'Defense Contractor', och att flera medarbetare skriver memon om att det är 'problem med Ryssland'. CoPilot analyserar dem och hittar ett sätt att 'lösa' problemet...

Boom - SkyNet eller Matrix, fast de robotar som tar över är inte smarta mordmaskiner i metall, utan korkade clippy-gem som bara lever vidare tills sista batteribackuppen tagit slut.

Visa signatur

Gammal och gnällig