OpenAI, guidata da Sam Altman, ha annunciato di aver stretto un accordo con il Pentagono per l'integrazione di tecnologie di Intelligenza Artificiale (IA) nei sistemi di sicurezza nazionale. La notizia, diffusa dallo stesso Altman venerdì sera, ha suscitato un ampio dibattito pubblico, spingendo il CEO a chiarire i termini e le implicazioni dell'accordo attraverso una sessione di domande e risposte. Altman ha tenuto a precisare che l'accordo è stato siglato nel rispetto della supremazia del governo democraticamente eletto, ribadendo che nessuna azienda privata può sostituirsi alle decisioni delle istituzioni.
Questo accordo arriva in un momento delicato, dopo che un precedente tentativo del Pentagono di adottare le soluzioni di IA di Anthropic era fallito a causa delle obiezioni degli sviluppatori, preoccupati per l'uso potenzialmente illimitato della tecnologia. Il contratto da 200 milioni di dollari con Anthropic era stato quindi annullato, e l'azienda era stata inserita in una lista di fornitori non affidabili, con il divieto per tutte le strutture governative americane di utilizzare i suoi servizi. La situazione aveva creato tensioni nel settore, con la necessità urgente di trovare un sostituto ad Anthropic entro sei mesi.
Altman ha spiegato che l'accordo tra OpenAI e il Pentagono è stato concluso rapidamente per stemperare le tensioni, un processo che normalmente richiederebbe tempi più lunghi. Ha riconosciuto che, se da un lato l'accordo potrebbe migliorare l'immagine di OpenAI e distendere i rapporti tra il Dipartimento della Difesa USA e le aziende del settore, dall'altro, in caso di fallimento, l'azienda potrebbe essere accusata di negligenza e fretta. Tuttavia, Altman si è detto ottimista, intravedendo segnali positivi per OpenAI.
Alla domanda sul perché il Pentagono abbia scelto OpenAI anziché Anthropic, Altman ha ipotizzato che le due parti abbiano raggiunto un accordo più rapidamente sui termini contrattuali. Ha suggerito che Anthropic potrebbe aver cercato di mantenere un maggiore controllo operativo sull'utilizzo delle sue tecnologie da parte del Pentagono, un approccio diverso da quello di OpenAI.
Parlando di "linee rosse", Altman ha identificato tre principi etici fondamentali che OpenAI intende rispettare nell'applicazione dell'IA da parte dei suoi clienti. Ha però sottolineato che questi principi sono soggetti a revisione in base all'evoluzione tecnologica e che, in futuro, potrebbero emergere ulteriori "linee rosse". "Per noi è normale che ChatGPT cerchi una risposta a una domanda controversa. Ma non vorrei che noi decidessimo cosa fare se una bomba nucleare fosse puntata contro gli Stati Uniti", ha affermato Altman, ribadendo che le decisioni più importanti spettano ai leader democraticamente eletti.
Secondo Altman, i negoziati tra OpenAI e il Pentagono sull'utilizzo dei servizi di IA nei processi non segreti del dipartimento erano in corso da mesi, ma solo recentemente si sono estesi alle operazioni segrete. OpenAI ha cercato di garantire pari condizioni di interazione tra il dipartimento e tutti gli operatori del mercato. Altman ha criticato l'atteggiamento di Anthropic, accusandola di aver prima allertato il governo sui rischi dell'IA a livello internazionale e poi di essersi rifiutata di collaborare, screditando l'operato del governo. A suo parere, la reazione delle autorità statunitensi è comprensibile, e i leader delle aziende private non dovrebbero avere lo stesso potere dei governanti eletti, ma possono offrire il loro aiuto.
Altman ha fornito due esempi concreti di come l'IA possa essere utilizzata a vantaggio della sicurezza nazionale. In primo luogo, può proteggere da attacchi hacker su vasta scala. In secondo luogo, può contribuire alla sicurezza biologica, prevenendo future pandemie. Questi esempi evidenziano il potenziale dell'IA come strumento di difesa e sicurezza, sottolineando l'importanza della collaborazione tra settore privato e istituzioni governative.

