Artificiell intelligens (AI) har i många år pekats ut som nästa stora teknikkliv och det senaste halvåret har praktiska tillämpningsområden blivit alltmer konkreta för den stora massan. Det är också tydligt att det pågår en kapplöpning mellan jättar som Google och Microsoft om att bli först och störst med de nya teknikerna. Nu rapporterar New York Times (betalvägg) att de raska framstegen inte sker utan internt motstånd.

New York Times har talat med 15 personer från Microsofts och Googles AI-projekt – anställda och tidigare anställda – som vittnar om att respektive ledning är villig att ta risker i AI-utvecklingen. New York Times beskriver bland annat ett e-postutskick från Microsoft-chefen Sam Schillace, som konstaterar att "det vore ett ödesdigert misstag att i nuläget oroa sig för saker som kan fixas senare". Vidare skriver Schillance att tidsaspekten är mycket viktig för att ta kontroll över marknaden och att några veckor kan göra skillnaden för vinnaren och förlorarna.

När det gäller Microsofts satsning på den AI-drivna chattbotten Chat GPT som del av Bing, och rivalen Googles egenstöpta motsvarighet Bard, syns exempel på sådana snabba puckar. Respektive avtäckande skedde med bara dagars mellanrum. Till skillnad från företagens tidigare och mindre lyckade experiment har AI-verktygen nu vidareutvecklats, där en del är hårdare styrning för att inte presentera diskriminerande, farliga eller felaktiga svar.

De nya varianterna är dock lanserade och tillgängliga för vanliga användare, men felaktiga svar är något som ändå förekommer – ett av argumenten som Google-anställda använde när de så sent som i mars ville blåsa av Bard-lanseringen. På Microsoft-sidan möttes lanseringsplanerna av mothugg grundade i risken att göra användare beroende av det AI-understödda sättet att söka, samt den knepigare källkritik som kommer av brist på tydligt angivna källor. Microsoft-forskare såg även risken att AI-chattbottar kan översvämma sociala medier med hat och desinformation.

De anställdas argument, varningar och råd att ta det varsamt med nyutvecklad AI-teknik har dock fallit på döva öron, till förmån för att spara tid. På senare tid har kritik och skepsis från andra håll gjort den interna sällskap, där ett Chat GPT-förbud i Italien och ett förslag på pausad AI-utveckling från ett stort antal teknikprofiler är exempel. Det återstå att se om protester och regleringar leder till minskat risktagande framöver.