Nel cuore della California, presso la corte federale di Oakland, si sta consumando uno dei capitoli più significativi e controversi della storia tecnologica moderna: il processo che vede contrapposti Elon Musk e la società che lui stesso ha contribuito a fondare, OpenAI. Le recenti testimonianze fornite da ex figure chiave dell’azienda hanno gettato una luce inquietante sulle dinamiche interne che hanno portato alla rottura del sodalizio originale e alla trasformazione della startup in un gigante commerciale. Al centro della contesa non vi è solo una questione di brevetti o accordi economici, ma l’essenza stessa della missione aziendale: garantire che l’intelligenza artificiale generale (AGI) benefici l’intera umanità. Secondo quanto emerso durante le udienze, questo obiettivo sarebbe stato sistematicamente accantonato in favore di una strategia aggressiva orientata al mercato, orchestrata sotto la guida del CEO Sam Altman.
Rosie Campbell, che ha operato nel prestigioso team di AGI Readiness tra il 2021 e il 2024, ha fornito una deposizione carica di dettagli tecnici e morali. La ricercatrice ha spiegato come, nel corso degli anni, l’anima di ricerca pura di OpenAI sia stata erosa da una cultura aziendale sempre più subordinata agli interessi degli investitori. Campbell ha sottolineato con forza che il dipartimento dedicato alla sicurezza e all’allineamento dei modelli di IA ai valori umani, il celebre team di Super Alignment, è stato progressivamente depotenziato fino alla sua completa chiusura. Un esempio emblematico di questa deriva citato in aula riguarda il rilascio di versioni avanzate di GPT-4 in India attraverso l’integrazione con Bing di Microsoft. Tale operazione sarebbe avvenuta senza la necessaria approvazione del Deployment Safety Board (DSB) di OpenAI, bypassando i protocolli di controllo interni per assecondare le tempistiche commerciali del colosso di Redmond. Durante il controinterrogatorio, la difesa ha cercato di evidenziare come l’approccio di OpenAI rimanga comunque più rigoroso rispetto a quello di concorrenti diretti come xAI, la società di Musk che è stata recentemente integrata in SpaceX all’inizio del 2026, ma la testimonianza ha confermato una preoccupante fragilità nelle procedure di verifica interna.
L’instabilità della governance è stata ulteriormente evidenziata dalle dichiarazioni di Tasha McCauley, ex membro del consiglio di amministrazione. La sua testimonianza ha ripercorso i giorni concitati del novembre 2023, quando il board decise di sollevare Sam Altman dall’incarico. McCauley ha descritto un clima di opacità comunicativa, accusando Altman di aver deliberatamente ingannato i membri del consiglio su questioni di fondamentale importanza gestionale. Il CEO avrebbe omesso di informare preventivamente il board sul rilascio pubblico di ChatGPT e avrebbe manipolato le informazioni riguardanti altri membri, come nel caso di Helen Toner. Quest’ultima era finita nel mirino di Altman dopo aver pubblicato un’analisi critica sulle politiche di sicurezza aziendali; secondo McCauley, Altman mentì ad altri consiglieri sostenendo che McCauley stessa ne volesse il licenziamento, creando fratture interne artificiali per consolidare il proprio potere personale. Anche figure storiche come Ilya Sutskever, scienziato capo, e Mira Murati, attuale CTO, avevano manifestato serie perplessità sullo stile di leadership del CEO, definendolo un dirigente propenso a evitare i conflitti diretti ma capace di manovre sotterranee che minavano l’autorità del consiglio superiore.
Il rientro trionfale di Altman, avvenuto grazie all’intervento decisivo di Microsoft e alla sollevazione dei dipendenti legata a vantaggiosi piani di stock option, ha segnato secondo la tesi di Elon Musk la fine della OpenAI originaria. David Schizer, ex decano della Columbia Law School e testimone esperto citato dalla parte attrice, ha argomentato che la trasformazione di un ente di ricerca senza scopo di lucro in una delle società private più ricche del pianeta costituisce una violazione flagrante degli accordi iniziali tra i fondatori. Schizer ha posto l’accento sulla sacralità della procedura: se una società dichiara statutariamente che la sicurezza è la sua priorità assoluta, ogni deviazione da tale processo rappresenta un fallimento etico e legale. La tesi sostenuta è che OpenAI abbia barattato la propria indipendenza scientifica per diventare, di fatto, una divisione di ricerca e sviluppo al servizio dei profitti e dell’infrastruttura cloud di Microsoft.
Le conclusioni di Tasha McCauley dinanzi ai giudici di Oakland hanno infine aperto un dibattito più ampio sulla necessità di una regolamentazione statale stringente per l’intero settore dell’intelligenza artificiale. Se le decisioni che influenzano la sicurezza globale e l’evoluzione tecnologica sono lasciate alla mercé del volere di un singolo individuo, senza contrappesi reali o trasparenza verso un organo di controllo esterno, la struttura stessa del sistema risulta pericolosa per il bene comune. La battaglia legale tra Elon Musk e OpenAI non è dunque solo una sfida tra miliardari della Silicon Valley, ma un processo fondamentale che definirà chi ha il diritto di controllare le tecnologie che plasmeranno il futuro dell’umanità. Mentre il caso prosegue negli Stati Uniti, il mondo osserva con attenzione, consapevole che il verdetto di questo processo potrebbe riscrivere completamente le regole della governance tecnologica per i decenni a venire, stabilendo se il profitto possa o meno sovrascrivere gli impegni solenni presi in nome della sicurezza pubblica e dell’etica scientifica.

