Open AI hackades för över ett år sedan men valde att hålla tyst om intrånget, rapporterar New York Times. Intrånget skedde i ett internt forum där anställda diskuterar utvecklingen av och tekniska detaljer kring företagets olika AI-modeller.

Systemet är fristående från andra interna system och hackaren kom inte över några loginuppgifter till andra delar av företaget. Eftersom forumet inte innehåller någon kunddata valde företaget att inte avslöja intrånget för allmänheten, utan enbart för anställda och styrelsen. Företaget tog heller inte kontakt med FBI eller någon annan myndighet.

Alla höll inte med om den rationaliseringen. En chef, Leopold Aschenbrenner, kritiserade företagets säkerhetsåtgärder, som han menade lämnade företaget öppet för större intrång från statliga aktörer. Han fick senare sparken för att ha läckt interna hemligheter, vilket han påstår var politiskt motiverat. Open AI säger att hans avskedande inte är relaterat till kritiken om säkerhet, och att ledningen helt enkelt drog en annan slutsats.

New York Times skriver att Open AI inte anser att dess AI-algoritmer utgör några risker för nationell säkerhet, och får medhåll av andra i branschen. Daniela Amodei, vd på Anthropic, säger till exempel att dagens AI-system förmodligen inte kan användas till att orsaka någon större skada. Meta har gjort sina modeller, med Llama i spetsen, öppen källkod och är inte ensamt om det.