L'annuncio di un recente accordo tra OpenAI e il Dipartimento della Difesa degli Stati Uniti (Pentagono) ha scatenato un'ondata di proteste interne all'azienda, mettendo in discussione l'etica e le implicazioni dell'utilizzo dell'intelligenza artificiale (IA) in ambito militare. Il CEO di OpenAI, Sam Altman, ha cercato di placare gli animi, esortando i dipendenti a non esprimere giudizi sulle decisioni del Pentagono e assicurando che le decisioni operative rimarranno di competenza delle autorità statunitensi. Nel frattempo, si vocifera che OpenAI stia valutando la possibilità di stipulare un contratto anche con la NATO.
Durante un'assemblea generale dei dipendenti, Altman ha ribadito la sua posizione, sostenendo che OpenAI non può influenzare il modo in cui le forze armate utilizzano le sue tecnologie. "Potreste pensare che colpire l'Iran sia una buona idea e invadere il Venezuela una cattiva, ma non dovete esprimerlo", ha affermato il CEO, sottolineando che l'azienda non è in grado di prendere decisioni operative sull'impiego dell'IA sviluppata per i militari americani.
Altman ha inoltre aggiunto che il Pentagono rispetta l'esperienza tecnica di OpenAI, ascolta i suoi consigli sull'utilizzo ottimale dell'IA e consentirà di definire i limiti di sicurezza nell'applicazione delle tecnologie, ove ritenuto opportuno. Tuttavia, il dipartimento della Difesa ha chiarito che le decisioni operative rimarranno di competenza del suo capo, Pete Hegseth. Si ritiene che le soluzioni di IA sviluppate dalla concorrente Anthropic siano già state utilizzate dal Pentagono non solo durante l'operazione per catturare il presidente del Venezuela a gennaio, ma anche nei recenti attacchi contro l'Iran. Dal 2023, il Pentagono utilizza le soluzioni di OpenAI in aree non riservate, per un valore di contratto pari a 200 milioni di dollari. Ora, queste tecnologie potranno essere impiegate anche in attività segrete.
"Credo che avremo i migliori modelli di IA, che incoraggeranno il governo a lavorare con noi, anche se le nostre limitazioni in materia di sicurezza li infastidiranno. Ma ci sarà almeno un altro attore, che presumo sarà xAI, che dirà: 'Faremo tutto ciò che volete'", ha dichiarato Sam Altman.
Reuters, OpenAI starebbe valutando la possibilità di stipulare un contratto con la NATO per l'utilizzo delle sue tecnologie di IA in sistemi non riservati. Altman ha confermato questa ipotesi durante l'assemblea generale del personale. Considerando il ruolo predominante del complesso militare americano nel funzionamento dell'alleanza, tali intenzioni da parte della startup non sorprendono. Il Pentagono insiste nel ritenere possibile l'utilizzo dell'IA per qualsiasi scopo lecito. Sia Anthropic che OpenAI ritengono necessario escludere l'impiego dell'IA per la sorveglianza di massa dei cittadini statunitensi e per la gestione di sistemi d'arma che selezionano e distruggono automaticamente i bersagli.
OpenAI si sta adoperando affinché i suoi sistemi di IA non vengano utilizzati dall'NSA e da altre agenzie di intelligence statunitensi e affinché, in ambito militare, l'applicazione dell'IA sia limitata alla sola infrastruttura cloud del dipartimento, e non ai dispositivi finali che controllano le armi. Altman ha definito la conclusione dell'accordo con il Pentagono una decisione estremamente difficile, ma giusta, che avrà conseguenze negative per l'immagine di OpenAI nel breve termine.

