Att googla sina symptom har länge varit vanligt, men kan resultera i rätt extrema svar för annars harmlösa symptom. En annan metod som fått ett kraftigt uppsving, är att använda sig av chatbottar som ChatGPT för att få hjälp, något som kan ge minst lika tråkiga utfall.
Psykiatrin i Malmö vittnar om hur ChatGPT negativt spär på psykoser hos redan utsatta personer, samt ger regelrätt livsfarliga råd. Just att ge potentiellt livshotande rådgivning är inte bara ett hypotetiskt scenario – personer har redan tagit sina liv på grund av dålig medicinsk vägledning från chatbottar.
Detta har inte undgått sjukvården. Lars Rocksén, intensivvårdsläkare och ordförande i Läkarförbundets digitaliseringsråd, menar att problemet inte är nytt. Däremot hävdar han att chatbottar kan förstärka oro eller underskattar allvaret. Det kan leda till onödiga utredningar eller att vård söks för sent. Språkmodeller ger övertygande svar, men saknar medicinsk förståelse.
Språkmodellerna samlar ju in hela internet, precis allting. De gör ingen skillnad på vad som är vetenskap, åsikter eller till och med rena fantasier och bygger ett svar baserat på den mest sannolika ordsekvensen - Lars Rocksén.
Någon som däremot ser mer positivt på det hela är Pär Höglund, barn- och ungdomspsykiatriker, samt överläkare på bup i Stockholm. Även om han ser riskerna som Lars lyfter, så överväger fördelarna eventuella nackdelar. Pär vill därför inte direkt avråda användningen, då han i sitt yrke sett goda exempel och utfall.
Däremot är det enligt Pär av stor vikt att det finns bra säkerhetsmekanismer, exempelvis om någon ger uttryck för självmordstankar. Med det menar han ett automatiskt svar som hänvisar till att kontakta en läkare, psykolog eller liknande. Sistnämnda är något åtminstone ChatGPT gör, enligt Pärs egna tester.