Artificiell intelligens används inom alla möjliga områden och kan exempelvis hitta avvikelser i röntgenbilder eller förbättra fotografier tagna med telefonen. Modellerna som använda för att träna datorer att lösa komplexa problem påminner om hur den mänskliga hjärnan är uppbyggd. Därtill kan system specialiserade på språk formulera svar och texter som är kusligt mänskliga, men trots likheter är självmedveten artificiell intelligens inte här.

För en dryg månad sedan hävdade dock Google-utvecklaren Blake Lemoine motsatsen, då han menade att företagets grund för chattbottar, Lamda, visade känslor. Lemoine sammanställde sina påståenden i en rapport som delades med chefer och en jurist utanför Google för att lyfta frågan om oetiska aktiviteter. Vid tillfället stängdes Lemoine av från sin tjänst och nu rapporterar BBC att Google nu tagit nästa steg och avskedat utvecklaren.

So, it's regrettable that despite lengthy engagement on this topic, Blake still chose to persistently violate clear employment and data security policies that include the need to safeguard product information – Google

Lemoine menade att Lamda ville ha sina intressen respekterade och för att belysa detta menar Google att han vid upprepade tillfällen bröt mot företagspolicy. I ett uttalande från Google understryks att det är olyckligt att den erfarna utvecklaren valde att bryta mot regelverket för sekretess, men önskar honom lycka på vägen med vad som än väntar framöver.

BBC skriver vidare att Blake Lemoine i dagsläget får juridisk rådgivning kring hur situationen kan hanteras och vill därför inte lämna någon kommentar. Det återstår således att se om sista ordet är sagt. Klart är i alla fall att Google menar att de tar etiska frågeställningar och utvecklares funderingar på största allvar och att Lamda synas i sömmarna när sådana uppstår.