Anthropic sfida il Pentagono: lo scontro legale sul futuro bellico dell'IA Claude

L'azienda nega ogni possibilità di sabotaggio tecnico e difende i limiti etici contro l'uso delle proprie tecnologie in sistemi d'arma letali

Anthropic sfida il Pentagono: lo scontro legale sul futuro bellico dell'IA Claude

Il panorama della sicurezza tecnologica globale è oggi scosso da uno scontro senza precedenti che vede contrapposti il colosso dell'intelligenza artificiale Anthropic e il Dipartimento della Difesa degli Stati Uniti. Al centro della contesa si trova il modello linguistico avanzato Claude, integrato nei sistemi classificati del Pentagono, e una controversa decisione politica che ha etichettato l'azienda come una minaccia per la catena di approvvigionamento nazionale. Anthropic ha risposto con fermezza presentando una denuncia dettagliata di sessanta pagine, identificata come caso numero 26-1049, presso la Corte d'Appello del Distretto di Columbia. Il documento fornisce prove tecniche approfondite che smontano la tesi centrale sostenuta dal Segretario alla Difesa Peter Hegseth, il quale aveva giustificato il declassamento di Anthropic citando presunti rischi operativi.

Nella memoria difensiva, Anthropic descrive minuziosamente l'architettura di implementazione di Claude all'interno dei circuiti chiusi del Pentagono. Una volta che il modello viene distribuito in questi ambienti sicuri, esso diventa statico: non ha la capacità di degradarsi autonomamente né di modificarsi senza un intervento diretto. Contrariamente a quanto sostenuto dalle autorità militari, Anthropic non possiede alcun accesso remoto, nessun interruttore di emergenza o backdoor che le permetta di inviare aggiornamenti, introdurre vulnerabilità o disattivare la tecnologia a distanza. Gli ingegneri della società non possono in alcun modo accedere ai sistemi del Dipartimento della Guerra degli Stati Uniti (DOW) per alterare il funzionamento del modello operativo. Prima della distribuzione, è il governo stesso a testare autonomamente ogni modello di intelligenza artificiale, conducendo valutazioni multilivello sul suo comportamento in scenari critici. Qualsiasi eventuale intervento dei tecnici di Anthropic dotati di nulla osta di sicurezza avviene esclusivamente su esplicita richiesta del dipartimento e sotto il suo rigoroso controllo operativo.

Questa realtà tecnica mina alla base l'argomentazione principale del Ministro Peter Hegseth. La giustificazione dello stato di minaccia, preparata dal Sottosegretario alla ricerca e sviluppo Emil Michael, sosteneva erroneamente che Anthropic mirasse a ottenere un potere di veto sulle operazioni militari e che potesse segretamente modificare Claude o spegnere la tecnologia durante un conflitto attivo. Anthropic definisce queste affermazioni come prive di fondamento, poiché è fisicamente e tecnicamente impossibile compiere tali azioni su modelli già installati localmente presso le infrastrutture governative. Il conflitto è scaturito principalmente da una divergenza etica riguardante due punti cardine della politica di utilizzo accettabile di Claude. Sebbene l'azienda fosse disposta ad ampliare l'uso militare per scopi logistici o analitici, si è rifiutata categoricamente di rimuovere il divieto di impiego per lo sviluppo di armi autonome letali e per la sorveglianza di massa dei cittadini americani.

La dirigenza di Anthropic ha spiegato che, allo stato attuale, Claude non possiede un livello di affidabilità tale da garantire la sicurezza in compiti così delicati. Un errore dell'intelligenza artificiale in una decisione di combattimento autonoma potrebbe causare la morte di militari o civili innocenti, mentre il quadro giuridico vigente non è ancora pronto a gestire la scala di elaborazione dati massiva accessibile a questi sistemi. Nonostante il Pentagono avesse inizialmente accettato tali restrizioni, nel mese di settembre 2025 ha iniziato a esigere l'autorizzazione per tutti gli usi legittimi definiti dal governo. Dopo mesi di trattative infruttuose, il 24 febbraio 2026, durante un incontro personale con il CEO e co-fondatore di Anthropic, Dario Amodei, il Segretario Hegseth ha lanciato un ultimatum: se l'azienda non avesse ceduto entro il 27 febbraio, sarebbe stata dichiarata una minaccia per la sicurezza nazionale.

La risposta di Dario Amodei non si è fatta attendere, ribadendo il 26 febbraio che, sebbene le decisioni militari spettino al Pentagono, Anthropic non può in coscienza accettare condizioni che compromettano la sicurezza pubblica e l'etica tecnologica. L'azienda ha inoltre sottolineato una palese contraddizione: il ministero dichiara Anthropic una minaccia, ma contemporaneamente richiede che la sua tecnologia rimanga operativa nei sistemi di combattimento per altri sei mesi. Tale designazione ha portato alla risoluzione di un accordo biennale del valore stimato di 200 milioni di dollari. Un memorandum datato 6 marzo ha obbligato tutte le unità del dipartimento a cessare l'uso dei prodotti Anthropic e a rimuovere l'azienda dalla lista dei fornitori approvati entro 180 giorni.

Attualmente, la Corte d'Appello del Distretto di Columbia ha negato la sospensione immediata dello status di minaccia, ma ha ordinato un procedimento accelerato per il 19 maggio 2026, riconoscendo che Anthropic presenta argomenti seri e rischia un danno irreparabile. Nel frattempo, un giudice del Distretto Settentrionale della California ha emesso un'ingiunzione preliminare in un caso correlato, offrendo un parziale respiro legale alla società. Sebbene Anthropic non possa stipulare nuovi contratti con il Pentagono, continua la sua collaborazione con altre agenzie federali degli Stati Uniti. È significativo notare che nessuna organizzazione privata ha presentato memorie a sostegno della posizione del Pentagono, mentre a favore di Anthropic si sono schierate decine di entità di rilievo, tra cui l'American Civil Liberties Union (ACLU), la Electronic Frontier Foundation (EFF), oltre a 149 ex magistrati, alti ufficiali in pensione e l'American Federation of Teachers (AFT). Questa coalizione sottolinea come la battaglia di Anthropic non sia solo commerciale, ma rappresenti un momento cruciale per definire i confini etici tra innovazione tecnologica, controllo statale e sicurezza umana nell'era dell'intelligenza artificiale.

Pubblicato Giovedì, 23 Aprile 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Giovedì, 23 Aprile 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti