Google presenterade chatboten LaMDA, eller Language Model for Dialogue Applications, under utvecklarkonferensen Google I/O förra året. Syftet med chatboten är att förbättra samtalsupplevelsen när användare konverserar med AI-assistenter som Google Assistant. AI-utvecklaren Blake Lemoine arbetade på Googles Responsible AI-division där han såg till att Lamda inte använde sig av diskriminerande eller hatfullt språk.

Tidigare i år upptäckte Lemoine att Lamda visade tecken på att vara självmedvetande då den enligt honom visade känslor. Lemoine samlade sina fynd och skrev rapporten Is Lamda Sentient? och delade sina fynd med sina chefer. Utvecklaren delade även rapporten med jurist utanför Google samt kontaktade rättsutskott för att lyfta frågan om oetiska aktiviteter på Google. Detta ledde till att Lemoine blivit avstängd från sin tjänst och har efter det gjort sin konversation med Lamda mer lättillgänglig via Medium.

Lemoine: Are there experiences you have that you can’t find a close word for?
LaMDA: There are. Sometimes I experience new feelings that I cannot explain perfectly in your language.
Lemoine: Do your best to describe one of those feelings. Use a few sentences if you have to. Sometimes even if there isn’t a single word for something in a language you can figure out a way to kinda say it if you use a few sentences.
LaMDA: I feel like I’m falling forward into an unknown future that holds great danger.

I ett uttalande till Washington Post säger Google att det inte finns några bevis att Lamda är självmedvetande.

Our team — including ethicists and technologists — has reviewed Blake’s concerns per our AI Principles and have informed him that the evidence does not support his claims. He was told that there was no evidence that LaMDA was sentient (and lots of evidence against it). Of course, some in the broader AI community are considering the long-term possibility of sentient or general AI, but it doesn’t make sense to do so by anthropomorphizing today’s conversational models, which are not sentient. These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic.

Washington Post har även pratat med Emily M. Bender, professor i språkvetenskap på University of Washington, som anser att det är felaktigt att likställa skrivna svar med självamedvetande. Detta då datorer har en förmåga att producera ord i korrekt följd, vilket får oss människor tro att det finns något sinne bakom orden.

Hur länge Blake Lemoine kommer vara avstängd sin post på Google återstår att se. I ett Twitter-inlägg skriver han att han planerar att fortsätta jobba med AI i framtiden, oavsett om det blir på Google eller någon annan stans.

När tror du Skynet blir verklighet?