Efter hot om massavhopp på Open AI – Sam Altman tillbaka som VD

Permalänk
Medlem

Så nu stärker Microsoft sin makt över OpenAI, och det hela blev ett bakslag för den senares strategi för "responsible" AI. De hade alltså en bolagsstruktur som skulle begränsa den rent kommersiella sidan av verksamheten, men den “klarade inte kontakt med fienden” som det brukar heta.

Det finns ett dilemma i "responsible AI"-konceptet.

I normala fallet, om man vill att en mjukvara ska tjäna mänskligheten snarare än enstaka kommersiella aktörer, är att göra den till öppen källkod. Om målet hade varit att förhindra att AI-genombrott monopoliseras av ett fåtal företag, så hade OpenAI kunnat släppa ChatGPT och andra saker de tar fram under en öppen licens. Problemet är bara att människorna bakom OpenAI har inte sett monopol som något hot, utan själva AI-programmet är hotet.

Om man tror att en AI som bara utvecklas för att bli så smart som möjligt kommer att bli självförbättrande och ta över hela världen, ja, då blir öppen källkod kontraproduktivt eftersom det då blir lättare för andra, förmodat mindre försiktiga aktörer att avsiktligt eller ej skapa den AGI som förgör mänskligheten. Det är samtidigt oklart hur man ska kunna hindra andra aktörer oavsett vad man själv utvecklar, och idén ”maktkoncentration är oproblematiskt så länge makten hamnar hos en schysst aktör” känns mer än lovligt naiv.

Men en än viktigare fråga är hur trovärdigt domedagscenariot egentligen är, i jämförelse med andra faror med tekniken? Det finns massor av sätt som människor kan ”vapenisera” (ursäkta anglicismen) AI, inte minst i de många informationskrig som utkämpas i detta nu. Låt en AI baserad på GPT analysera all din aktivitet på nätet, vad du läser och skriver på sociala medier, och sedan ge den uppdraget att skräddarsy den perfekta falska nyheten designad för att just du okritiskt ska tro på den. Det är bara ett exempel som jag kan fantisera ihop på rak arm, men vi kan vänta oss massor av liknande saker som vi behöver veta saker om tekniken för att kunna förutse och detektera. Men det faktum att nästan alla modeller som utvecklas just nu är slutna, gör det svårare för aktörer utanför fältet att bygga upp försvar och motstrategier mot anvädandet av AI i oärliga syften.

Det finns alltså två motstridiga problemformuleringar kring AI-säkerhet:

  1. Risken för AI-apokalyps, som kan minskas av att kod och språkmodeller är slutna

  2. Risken för att AI används som vapen eller för bedrägeri, som hade kunnat minskas av att kod och språkmodeller är öppna

I och med Microsofts styrning av OpenAI så riskerar vi få det sämsta av båda dessa.

Visa signatur

Här hade jag en historik sen 1990-talet, men den blev tillslut för lång. Aktiva maskiner 2022-framåt:
Work/Play/Everythingstation: AMD Epyc 7443p, Pop OS host, Win10 + Linux guests (KVM/Qemu)
Work/Play nr 2: AMD Phenom II 1090t, Debian + Win 10 (dual boot)
Server x3: Epyc 7252 (TrueNAS Core), Atom 2550 (FreeBSD, backup), Opteron 6140 (Ubuntu, off prem backup)
Retrohörna under uppbyggnad: Dual Pentium Pro 200MHz, Pentium P54C 90MHz, Gravis Ultrasound MAX