Bland de många fördelar som lyfts med artificiell intelligens och chattbottar som Chat GPT är hjälp att generera fungerande kod i alla möjliga tänkbara programmeringsspråk. Det öppnar dörrar för fler att nyttja programmering på nya sätt, men baksidan är att det inkluderar även personer och organisationer vars avsikt inte är att göra gott.

Nu varnar flera säkerhetsexperter för att Chat GPT och liknande chattbottar går att använda för att skapa särskilt svårupptäckta skadeprogram. Mer specifikt är det vad som kallas polymorphic malware som är farhågan. Termen beskriver skadeprogram vars kod kan "mutera" och förändras varje gång programmet körs, utan att syftet med skadeprogrammet ändras.

Det gör dem nära omöjliga för EDR-system (eng. endpoint detection and response) att upptäcka, system som vanligen används för att bevaka och skydda känsliga "ändpunkter" som telefoner, skrivare och datorer i ett nätverk.

Filter är inte tillräckligt bra skydd

De flesta språkmodeller i publika chattbottar som Chat GPT är utformade med filter som ska stoppa användare från att missbruka tjänsten på olika vis. Sådana filter har dock visat sig möjliga att förbigå och säkerhetsforskare har med Chat GPT skapat konceptmodeller som bevisar att chattbotten trots filter kan användas för att generera skadlig kod.

Exempel inkluderar en keylogger som gör anrop till Chat GPT varje gång det körs. Med hjälp av AI kan skadeprogram kombinera flera olika beteenden som annars upptäcks av EDR-system, men i en ordning eller ett mönster som är såpass ovanligt att det blir oigenkännligt och därmed passerar obemärkt. För närvarande är det inte mer än konceptmodeller, men utan åtgärder kan liknande exempel komma att bli verklighet.

Källa: Tom's Hardware