Anthropic contro il Pentagono: Intelligenza Artificiale al centro della disputa sulla sicurezza nazionale

La società di IA sfida il Dipartimento della Difesa USA per la sua inclusione nella lista nera delle minacce alla sicurezza, sollevando interrogativi sull'uso militare dell'IA e la libertà di espressione

Anthropic contro il Pentagono: Intelligenza Artificiale al centro della disputa sulla sicurezza nazionale

La battaglia legale tra Anthropic, una società all'avanguardia nel campo dell'intelligenza artificiale (IA), e il Pentagono sta infiammando il dibattito sull'uso responsabile dell'IA nel settore militare e sulla libertà di espressione delle aziende tecnologiche. Al centro della controversia c'è la decisione del Dipartimento della Difesa USA di inserire Anthropic nella lista delle minacce alla sicurezza nazionale nella catena di approvvigionamento, una mossa che la società considera una punizione per aver espresso pubblicamente preoccupazioni sulla sicurezza dei sistemi di IA in ambito bellico.

Secondo la causa intentata da Anthropic presso il tribunale federale della California, il capo del Pentagono, Pete Hegseth, avrebbe abusato dei suoi poteri nell'attribuire alla società lo status di minaccia alla sicurezza nazionale. Tale designazione, solitamente riservata a entità che mettono a rischio i sistemi militari esponendoli a infiltrazioni o sabotaggi nemici, comporterebbe per Anthropic la perdita di miliardi di dollari e danni irreparabili alla sua reputazione. La giudice distrettuale Rita Lin ha espresso preoccupazione, affermando che "sembra che il Dipartimento della Difesa stia punendo Anthropic per aver tentato di richiamare l'attenzione pubblica su questa disputa contrattuale". Anthropic ha richiesto al tribunale un'ingiunzione temporanea per sospendere le sanzioni fino alla conclusione del processo, con la giudice Lin che ha promesso una decisione scritta a breve.

Il nodo cruciale della discordia risiede nel rifiuto di Anthropic di consentire al Pentagono di utilizzare i suoi modelli di IA per la sorveglianza di massa dei cittadini statunitensi e per lo sviluppo di armi autonome capaci di prendere decisioni letali senza intervento umano. Questa posizione etica ha portato il Pentagono a considerare Anthropic una minaccia, invocando una legge poco conosciuta sugli appalti pubblici, originariamente concepita per proteggere i sistemi militari da sabotaggi stranieri. Anthropic contesta fermamente questa interpretazione, definendo le azioni delle autorità una violazione del suo diritto alla libertà di parola e denunciando la mancanza di un'opportunità di contestare la designazione. La società ha quindi presentato un'ulteriore causa a Washington D.C., contestando un'altra decisione del Pentagono che potrebbe escluderla dalla partecipazione a contratti governativi.

L'avvocato di Anthropic ha accusato il Pentagono di applicare una "interpretazione palesemente errata" della legge sugli appalti pubblici per punire la società per la sua posizione negoziale. In risposta, un rappresentante del Dipartimento di Giustizia ha sollevato il rischio che Anthropic possa "installare un 'interruttore di emergenza' o aggiungere funzionalità che le consentano di alterare il funzionamento del sistema quando è più necessario ai nostri militari". Secondo il governo, tale rischio sarebbe inaccettabile.

Questo scontro mette in luce le crescenti tensioni tra le aziende tecnologiche e il governo riguardo all'uso dell'IA in ambito militare. Da un lato, il Pentagono cerca di sfruttare le potenzialità dell'IA per migliorare le proprie capacità operative e mantenere un vantaggio strategico. Dall'altro, aziende come Anthropic si preoccupano delle implicazioni etiche e dei rischi per la sicurezza derivanti dall'uso incontrollato dell'IA, soprattutto in contesti militari. La vicenda solleva interrogativi fondamentali sul ruolo delle aziende tecnologiche nella definizione delle politiche di sicurezza nazionale, sulla libertà di espressione delle imprese e sulla necessità di un quadro normativo chiaro e aggiornato per l'uso dell'IA in ambito militare. Il caso Anthropic potrebbe avere ripercussioni significative sul futuro dello sviluppo e dell'implementazione dell'IA nel settore della difesa, ridefinendo il rapporto tra tecnologia, sicurezza e libertà.

Pubblicato Mercoledì, 25 Marzo 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Mercoledì, 25 Marzo 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti