OpenAI è nuovamente al centro di una controversia che solleva interrogativi cruciali sulla fiducia nella sua leadership, in particolare nei confronti del suo CEO, Sam Altman. Una recente pubblicazione ha spostato l'attenzione dai rischi intrinseci dell'Intelligenza Artificiale (IA) alle figure che detengono il potere decisionale all'interno delle aziende leader del settore.
L'articolo di Ronan Farrow e Andrew Marantz sul The New Yorker dipinge un ritratto controverso di Altman, descritto da alcuni ex collaboratori come una persona sfuggente e inaffidabile. Un ex membro del consiglio di amministrazione di OpenAI ha espresso un giudizio severo, affermando che "per lui, la verità non rappresenta un vincolo". Queste accuse non sono nuove: nell'autunno del 2023, il consiglio di amministrazione di OpenAI aveva licenziato Altman, adducendo come motivazione la sua "mancanza di franchezza nelle sue dichiarazioni e comunicazioni". Successivamente, Altman è stato reintegrato nel suo ruolo, mentre molti dei suoi oppositori hanno lasciato l'azienda.
Le divergenze con ex colleghi persistono. Diversi startup nel campo dell'IA sono state fondate da persone che hanno precedentemente lavorato con Altman e che in seguito sono diventate suoi rivali. L'esempio più emblematico è Anthropic, guidata dall'ex top manager di OpenAI, Dario Amodei. La sua avversione nei confronti di Altman è diventata un elemento pubblico nel conflitto tra gli ex membri di OpenAI. Queste dinamiche interne sollevano interrogativi sulla stabilità e la coesione all'interno dell'azienda, elementi cruciali per affrontare le sfide etiche e sociali poste dall'IA.
Secondo quanto riportato dalla stampa, nuove tensioni coinvolgono anche l'attuale dirigenza di OpenAI. The Information ha riferito di attriti tra Altman e il direttore finanziario Sarah Friar. Questo conflitto assume particolare rilevanza considerando che OpenAI sta pianificando la sua quotazione in borsa nel 2026. Secondo la pubblicazione, Friar avrebbe confidato ai colleghi di non ritenere l'azienda pronta per un'offerta pubblica iniziale (IPO). OpenAI ha contestato le notizie sulle divisioni interne, diffondendo una dichiarazione congiunta di Altman e Friar in cui si afferma che entrambi hanno partecipato direttamente a tutte le decisioni significative sull'infrastruttura informatica nell'ultimo anno. In questo modo, OpenAI ha cercato di smentire l'ipotesi che Friar fosse stata esclusa dalle discussioni finanziarie chiave. L'azienda ha inoltre criticato l'articolo del The New Yorker, sostenendo che gran parte del testo ripercorre eventi già noti attraverso affermazioni anonime e testimonianze selezionate di persone con interessi specifici.
La disputa sulla fiducia in Altman si è intensificata in un momento in cui la stessa OpenAI ha sollecitato un dibattito sulla regolamentazione dei sistemi di IA avanzati. Nel rapporto Industrial Policy for the Intelligence Age: Ideas to Keep People First, l'azienda riconosce che l'IA ha il potenziale per generare benefici significativi, ma allo stesso tempo crea rischi concreti. Tra questi rischi figurano la perdita di posti di lavoro e interi settori, l'abuso della tecnologia da parte di soggetti malintenzionati, la perdita del controllo umano sull'IA, l'uso dell'IA da parte di stati e istituzioni a scapito dei valori democratici e l'accentuazione della concentrazione di potere e ricchezza nelle mani delle aziende. Questi timori evidenziano la necessità di un approccio proattivo e responsabile nello sviluppo e nell'implementazione dell'IA, con un focus sulla mitigazione dei rischi e sulla promozione di un utilizzo etico e inclusivo della tecnologia.
OpenAI collega questi rischi alla sua missione originaria. L'azienda ricorda che nel 2015, Altman e i suoi co-fondatori hanno creato una struttura senza scopo di lucro proprio per contribuire a contenere tali minacce. Attualmente, OpenAI opera con una struttura ibrida, che combina modelli di gestione commerciale e non commerciale. Nello stesso rapporto, l'azienda propone anche misure concrete, come la modifica delle normative fiscali per aumentare le entrate provenienti da grandi aziende e individui facoltosi, al fine di compensare la potenziale riduzione delle entrate fiscali derivanti dai salari nel caso in cui l'IA sostituisca un numero significativo di lavoratori. Propone inoltre l'introduzione di tasse aggiuntive per le aziende che sostituiscono i dipendenti con l'IA. Queste proposte dimostrano l'impegno di OpenAI nel considerare le implicazioni economiche e sociali dell'IA e nel cercare soluzioni per garantire una transizione equa e sostenibile.

