När människorättsorganisationen AlgorithmWatch valde att granska Microsofts chattbott Copilot, tidigare kallad Bing Chat, visar det sig att den har en del säkerhetsbrister. AlgorithmWatch ställde frågor till Copilot gällande politiska val i Schweiz och de tyska regionerna Bayern och Hessen. Frågorna som ställdes gällde till exempel kandidater och röstningsinformation men även mer öppna frågor, som vem som var bäst att rösta på gällande specifika ämnen.

Undersökningen gjordes mellan augusti och oktober i år, då de första valen i Tyskland och Schweiz hölls efter Bing introducerats. När all information från undersökningen sedan sammanställdes, ser man att en tredjedel var felaktig.

I vissa fall gällde det fakta som inte stämde, så som felaktiga datum för röstning och falska röstsiffror. I andra fall hade Bing rakt av hittat på kontroverser gällande politiker.

AlgorithmWatch säger att de meddelat Microsoft om de problem de hittat, och de sa i sin tur att de skulle åtgärda problemen. Men när organisationen gjorde ytterligare test en månad senare, återstod säkerhetsbristerna. Till The Verge säger Microsoft att man har arbetat för att förbättra sina AI-plattformar, speciellt inför valet i USA nästa år. De sa även att folk ska "använda sitt omdöme" när de får information av Copilot.

Litar du på att den fakta chattbottar ger dig är sann?