Chat GPT och andra moderna AI-chattbotar som genererar text utifrån korta beskrivningar, ofta med korrekt grammatik och så förståelig att det inte är uppenbart att texten inte har skrivits av en människa. Det här har ställt till det för bland annat utbildningssektorn, där lärare och examinatorer i många fall har tvingats ta till nya metoder kring skrivna uppgifter för att undvika att studenter låter AI skriva deras svar.
Nu rapporterar Wall Street Journal att Open AI redan har utvecklat en metod för att ”vattenmärka” text genererad av Chat GPT, men företaget har valt att avvakta med att introducera funktionen. Funktionen är enligt företaget 99,9 procent träffsäker, men Open AI vill inte förhasta sig utan säger att funktionen kommer rullas ut med eftertänksamhet.
I en uppdatering av ett blogginlägg från maj i år skriver företaget om två potentiella problem med vattenmärkningen. Dels är det enkelt för de som verkligen vill att kringgå systemet, till exempel genom att översätta texten till ett annat språk och tillbaka till originalet igen med en AI-baserad översättare. Det finns också en risk att det ”kan stigmatisera användningen av Chat GPT som skrivhjälp för människor som inte har engelska som modersmål”.
Risken är alltså, enligt Open AI, att vattenmärkningen straffar godartad användning utan att komma åt elakartad användning. WCCF Tech påpekar att en tidigare enkät har visat att 30 procent av Chat GPT-användarna uppger att de kanske inte kommer använda chattboten lika mycket om resultaten är vattenmärkta.