Anthropic sfida il Pentagono: rifiuta l'accesso illimitato all'IA e rischia un contratto da 200 milioni

La startup di IA si oppone alle richieste del Dipartimento della Difesa USA, tracciando 'linee rosse' sull'uso delle sue tecnologie per sorveglianza di massa e armi autonome

Anthropic sfida il Pentagono: rifiuta l'accesso illimitato all'IA e rischia un contratto da 200 milioni

La startup di intelligenza artificiale Anthropic ha preso una posizione ferma contro il Dipartimento della Difesa degli Stati Uniti (Pentagono), rifiutando di concedere accesso illimitato alle sue tecnologie di IA. Questa decisione mette a rischio un contratto da 200 milioni di dollari, ma Anthropic sembra irremovibile nel proteggere i propri principi etici.

Secondo quanto riportato, durante un incontro alla Casa Bianca, il segretario alla Difesa, Pete Hegseth, aveva dato alla società tempo fino alla fine della giornata di venerdì per riconsiderare l'offerta. Tuttavia, già giovedì, Anthropic ha comunicato il suo rifiuto. La richiesta del Dipartimento della Difesa era quella di avere piena libertà nell'utilizzo degli strumenti di IA, una condizione che altre aziende del settore sembrano aver accettato.

Aziende come OpenAI (sviluppatore di ChatGPT), Google e xAI di Elon Musk avrebbero acconsentito a permettere al Pentagono di utilizzare i loro sistemi di IA per «tutti gli scopi legittimi» su reti non classificate, e starebbero lavorando ad accordi simili per le reti classificate. Questa disparità di vedute evidenzia una spaccatura nel settore tecnologico riguardo all'etica e all'utilizzo militare dell'IA.

In una dichiarazione pubblicata giovedì, il CEO di Anthropic, Dario Amodei, ha espresso la sua convinzione «nell'importanza esistenziale dell'utilizzo dell'IA per proteggere gli Stati Uniti e altre nazioni democratiche». Ha sottolineato che Anthropic ha lavorato attivamente per integrare i suoi modelli nel Dipartimento della Difesa e nella comunità di intelligence, ma ha anche delineato due «linee rosse» invalicabili: nessuna sorveglianza di massa sugli americani e nessuna arma autonoma letale.

Amodei ha specificato che, sebbene in futuro Anthropic potrebbe considerare l'uso di armi completamente autonome da parte dei militari, al momento non è disposta a farlo. Questa posizione riflette una preoccupazione crescente riguardo ai rischi associati all'IA, in particolare la possibilità di utilizzi impropri che potrebbero minare i valori democratici.

La reazione del Pentagono non si è fatta attendere. Si dice che stia valutando la dipendenza dei suoi appaltatori dalla IA di Anthropic, in particolare dal modello Claude. La posizione di Anthropic potrebbe portare il dipartimento a classificarla come «rischio per la catena di approvvigionamento», una designazione solitamente riservata a entità che rappresentano una minaccia per la sicurezza nazionale, come le società cinesi e russe.

Un portavoce del Pentagono ha dichiarato al Washington Post: «Potremmo richiedere a tutti i nostri fornitori e appaltatori di confermare che non utilizzano modelli antropici». Questa mossa potrebbe avere un impatto significativo non solo su Anthropic, ma anche su qualsiasi azienda che utilizzi la sua IA.

Inoltre, il Pentagono starebbe considerando l'applicazione del Defense Production Act del 1950, una legge che consente al governo federale di intervenire nelle attività delle società private per costringere Anthropic a conformarsi alle sue richieste. Questa escalation dimostra quanto sia alta la posta in gioco in questa disputa.

Amodei ha ribadito che «le minacce del Pentagono non cambiano la nostra posizione: non possiamo, in buona coscienza, soddisfare la loro richiesta». Ha aggiunto che, se il dipartimento decidesse di rinunciare ai servizi di Anthropic, la società si impegnerà a garantire una transizione agevole verso un altro fornitore, evitando interruzioni nella pianificazione militare, nelle operazioni o in altre missioni critiche. I modelli di Anthropic rimarranno disponibili alle condizioni ampliate proposte dalla società per tutto il tempo necessario.

La vicenda solleva importanti interrogativi sull'etica dell'IA, sul suo utilizzo militare e sul rapporto tra le aziende tecnologiche e i governi. La decisione di Anthropic potrebbe avere un impatto duraturo sul settore e influenzare le future politiche sull'IA a livello globale. Resta da vedere come si evolverà questa situazione e quali saranno le conseguenze per tutte le parti coinvolte.

Pubblicato Venerdì, 27 Febbraio 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Venerdì, 27 Febbraio 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti