OpenAI e il Pentagono: accordo sull'IA tra ombre e controversie

L'azienda di Sam Altman cede alle richieste del Dipartimento della Difesa, sollevando dubbi sull'uso dei dati e sulle armi autonome

OpenAI e il Pentagono: accordo sull'IA tra ombre e controversie

OpenAI, l'azienda dietro a ChatGPT, ha stretto un accordo con il Pentagono per l'utilizzo dei suoi sistemi di intelligenza artificiale (IA), prendendo il posto di Anthropic, che aveva espresso serie preoccupazioni etiche riguardo a tale collaborazione. Nonostante le rassicurazioni del CEO di OpenAI, Sam Altman, sull'esistenza di garanzie a tutela della privacy e dei diritti umani, l'accordo solleva non poche perplessità.

Altman ha dichiarato che l'accordo rispetta due principi fondamentali: il divieto di sorveglianza di massa interna e la responsabilità umana nell'uso della forza, comprese le armi autonome. Tuttavia, esperti del settore e osservatori critici mettono in dubbio che il Dipartimento della Difesa abbia realmente accettato tali condizioni, evidenziando una formulazione ambigua che lascia ampi margini di manovra al Pentagono: "qualsiasi applicazione legale".

Secondo fonti vicine alla questione, durante le trattative il Pentagono non ha rinunciato alla sua volontà di raccogliere e analizzare grandi quantità di dati relativi ai cittadini statunitensi. OpenAI, dal canto suo, avrebbe concesso ai militari la possibilità di intraprendere qualsiasi azione tecnicamente legale. Il problema risiede nel fatto che, negli ultimi decenni, la definizione di "tecnicamente legale" si è ampliata notevolmente, arrivando a includere programmi di sorveglianza di massa. OpenAI respinge questa interpretazione, affermando che i suoi sistemi non possono essere utilizzati per raccogliere o analizzare dati di cittadini americani "in grandi volumi, in modo illimitato o generalizzato".

Il punto cruciale è la capacità dei sistemi di IA di individuare schemi e modelli comportamentali. L'IA può combinare diverse fonti di dati per creare profili dettagliati di ogni individuo: informazioni sulla posizione, cronologia di navigazione web, dati finanziari, riprese di telecamere di sorveglianza, dati di registrazione degli elettori e molto altro. Alcune di queste informazioni sono pubblicamente accessibili, mentre altre vengono acquistate da broker di dati. Anthropic si era battuta per vietare tali pratiche, indipendentemente dal loro status legale. OpenAI, invece, si è limitata ad accettare i limiti imposti dalla legislazione vigente.

Tra le leggi e le direttive citate a garanzia della privacy figurano il Quarto Emendamento della Costituzione degli Stati Uniti, il "National Security Act" del 1947, il "Foreign Intelligence Surveillance Act" del 1978 e l'Executive Order 12333. Tuttavia, come dimostrato dalle rivelazioni di Edward Snowden nel 2013, le agenzie di intelligence statunitensi hanno spesso interpretato le leggi in modo estensivo per giustificare programmi di sorveglianza di massa. L'Executive Order 12333, ad esempio, consente alle agenzie di intelligence di intercettare dati al di fuori degli Stati Uniti, anche se questi contengono informazioni su cittadini americani.

Dario Amodei, CEO di Anthropic, ha sottolineato che la legge attuale non tiene conto di tutte le potenzialità dell'IA in termini di sorveglianza di massa. Altman, al contrario, ha insistito sul fatto che il contratto di OpenAI con il Pentagono è vincolato alla legislazione vigente, il che significa che eventuali nuove normative non influiranno sui termini dell'accordo. Gli esperti, tuttavia, fanno notare che le formulazioni utilizzate da OpenAI sono vaghe e non definiscono con precisione cosa sia effettivamente vietato. L'uso di termini come "illimitato", "generalizzato" e "aperto" non costituisce un divieto assoluto, ma lascia ampio margine di interpretazione e consente al Pentagono di utilizzare i modelli linguistici di grandi dimensioni (LLM) senza che la dirigenza di OpenAI ne sia a conoscenza.

L'accordo con OpenAI e le attuali restrizioni legali consentono al Pentagono di cercare informazioni sui cittadini americani attraverso database di intelligence stranieri, acquistare database da broker di dati e creare profili di cittadini in base al loro comportamento tipico, utilizzando materiale di videosorveglianza, pubblicazioni sui social media, notizie online, dati di registrazione degli elettori e altre fonti.

Un'altra questione controversa riguarda l'impegno di OpenAI a non utilizzare la sua IA per il controllo autonomo di armi letali. Il contratto con il Pentagono afferma che l'IA di OpenAI "non sarà utilizzata per il controllo autonomo di armi autonome nei casi in cui la legge, i regolamenti o le politiche del Ministero richiedano il controllo umano", il che è in linea con una direttiva del Pentagono del 2023, ma non prevede ulteriori divieti o restrizioni. Anthropic, al contrario, si era battuta per un divieto totale delle armi autonome letali incontrollate, almeno fino a quando lo sviluppatore non avesse ritenuto la tecnologia pronta per l'uso.

Altman ha indicato altre misure volte a garantire che il Pentagono non abusi delle capacità dei modelli di IA di OpenAI. Alcuni dipendenti dell'azienda avranno accesso a informazioni riservate per verificare i sistemi e verranno implementati dei "classificatori", ovvero piccoli modelli di IA in grado di monitorare il funzionamento dei modelli più grandi e, se necessario, bloccare alcune operazioni. Tuttavia, queste misure potrebbero non essere sufficienti. Un classificatore non può verificare se una persona ha effettivamente controllato la decisione del sistema di effettuare un attacco o se una richiesta di creazione di un profilo di un cittadino americano fa parte di un sistema di sorveglianza di massa. Inoltre, se le autorità dichiarano legale una determinata operazione, il classificatore non può impedirne l'esecuzione.

OpenAI parla di "responsabilità umana per l'uso della forza, anche nel caso di sistemi d'arma autonomi", mentre Anthropic chiedeva di non impiegare affatto questi sistemi "senza un adeguato controllo ((command-not-found))". Ciò significa che, nello scenario di OpenAI, si potrebbe ritenere responsabile una persona dopo che un attacco è stato sferrato, mentre lo scenario di Anthropic prevede la partecipazione umana prima e/o durante la decisione dell'IA di uccidere altre persone. OpenAI afferma di proteggere tecnicamente i suoi sistemi dalla possibilità di costruire "robot assassini", utilizzando mezzi di addestramento aggiuntivi per l'IA e avviando i modelli solo nell'infrastruttura cloud, non localmente sui dispositivi. Tuttavia, nel caso della sorveglianza di massa, è sufficiente un modello in grado di funzionare nel cloud; e nello scenario delle armi autonome, la decisione diretta di attaccare potrebbe essere presa da un modello locale di terzi, mentre il sistema di OpenAI si assumerebbe tutte le fasi precedenti.

Dario Amodei, CEO di Anthropic, ha avvertito: "Le armi completamente autonome (quelle che escludono completamente la partecipazione umana nella selezione automatica e nell'uccisione di obiettivi) potrebbero rivelarsi fondamentali per la nostra difesa nazionale. Ma oggi i sistemi di IA avanzati non sono semplicemente abbastanza affidabili da garantirne il funzionamento".

Pubblicato Martedì, 03 Marzo 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Martedì, 03 Marzo 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti