L'NSA sfida il Pentagono: l'uso segreto dei modelli AI di Anthropic per la sicurezza nazionale

Mentre il Dipartimento della Difesa valuta i rischi per la sicurezza, l'intelligence americana sfrutta la potenza di Mythos Preview per scovare vulnerabilità critiche

L'NSA sfida il Pentagono: l'uso segreto dei modelli AI di Anthropic per la sicurezza nazionale

Il panorama della sicurezza nazionale degli Stati Uniti sta attraversando una fase di profonda contraddizione tecnologica e burocratica. Al centro di questo scontro si trova Anthropic, una delle aziende leader nel settore dell'intelligenza artificiale, le cui soluzioni avanzate sono diventate oggetto di un acceso dibattito tra diverse branche del governo federale. Da un lato, il Dipartimento della Difesa (DoD) esprime crescenti preoccupazioni circa i rischi potenziali che l'integrazione di sistemi di terze parti potrebbe comportare per la sicurezza nazionale; dall'altro, l'Agenzia per la Sicurezza Nazionale (NSA), nota per le sue operazioni di intelligence e sorveglianza globale, ha già integrato attivamente i modelli di Anthropic nei propri flussi di lavoro operativi.

Secondo quanto riportato da fonti vicine all'amministrazione a Washington, l'NSA starebbe utilizzando una delle versioni più potenti e riservate dell'ecosistema di Anthropic, denominata Mythos Preview. Si tratta di uno strumento di calcolo e analisi predittiva di altissimo livello, progettato per compiti che richiedono una comprensione profonda del codice informatico e delle architetture di rete. Il paradosso è evidente: mentre il Pentagono tenta di determinare se la società fondata da Dario Amodei rappresenti un rischio sistemico, l'intelligence militare ne sta espandendo l'impiego per scopi critici. Questa situazione riflette una spaccatura interna alla strategia di difesa degli USA, dove la necessità di mantenere un vantaggio tecnologico immediato sembra superare la cautela regolatoria.

L'uso di Mythos Preview all'interno dell'NSA non è un semplice esperimento accademico, ma una necessità tattica. L'intelligenza artificiale viene impiegata principalmente per l'identificazione di vulnerabilità nei software (bug hunting) e per il monitoraggio delle infrastrutture critiche nazionali. In un'epoca caratterizzata da attacchi hacker sempre più sofisticati provenienti da attori statali, disporre di un modello capace di scansionare milioni di righe di codice in pochi secondi è un asset inestimabile. La capacità di Mythos di agire come un audit automatizzato permette agli esperti di sicurezza di Fort Meade di anticipare le mosse degli avversari, correggendo falle prima che possano essere sfruttate in attacchi su larga scala. Fondata nel 2021 da Dario Amodei e Daniela Amodei, ex dirigenti di OpenAI, Anthropic ha sempre cercato di distinguersi per un approccio etico e orientato alla sicurezza, sviluppando la cosiddetta IA costituzionale.

Tuttavia, questa collaborazione ribelle solleva questioni legali e di sicurezza non indifferenti. Fonti governative indicano che il Dipartimento della Difesa ha sollevato obiezioni formali, arrivando persino a considerare azioni legali per limitare la diffusione di tali tecnologie all'interno dell'apparato statale, citando la potenziale esposizione di dati classificati. Il timore principale riguarda la natura black box dell'IA: nessuno può garantire con certezza assoluta che le informazioni processate dai modelli di Anthropic non possano, in qualche modo, essere compromesse o utilizzate per addestrare versioni future del modello accessibili a terzi. Nonostante queste riserve, l'NSA continua a procedere, convinta che il rischio di rimanere indietro nella corsa all'IA sia superiore al rischio di una possibile falla di sicurezza legata al fornitore privato.

La rilevanza di Mythos Preview è confermata dalla rigorosa selezione degli accessi operata da Anthropic. L'azienda ha limitato l'uso di questo specifico modello a circa 40 organizzazioni a livello globale, garantendo che solo enti con elevati standard di responsabilità e sicurezza possano interfacciarsi con la sua tecnologia più avanzata. Di queste organizzazioni, solo 12 sono state rese note, lasciando intendere che l'NSA faccia parte del gruppo ristretto che opera nell'ombra. È interessante notare come questa tecnologia non sia confinata entro i confini americani; collaborazioni simili sono attive anche nel Regno Unito, suggerendo che l'alleanza Five Eyes stia cercando di standardizzare l'uso dell'intelligenza artificiale generativa per scopi di difesa collettiva. La pressione per mantenere il primato tecnologico è tale che le agenzie sono disposte a navigare in zone grigie della regolamentazione pur di non cedere il passo a rivali globali come la Cina.

Nel tentativo di mediare questa situazione di stallo, il CEO di Anthropic, Dario Amodei, ha recentemente incontrato alti funzionari dell'amministrazione a Washington. L'incontro, avvenuto il venerdì scorso, ha avuto come tema centrale proprio la definizione di un protocollo chiaro per l'uso di Mythos da parte delle agenzie governative. L'obiettivo è quello di creare una cornice normativa che permetta non solo al Pentagono, ma anche ad altre strutture federali, di beneficiare dell'IA senza incorrere in sanzioni o blocchi burocratici. La sfida per Anthropic è immensa: deve dimostrare di essere un partner patriottico e affidabile per gli Stati Uniti, pur mantenendo la sua autonomia come entità privata in un mercato globale ferocemente competitivo. La situazione attuale si inserisce in un contesto globale di estrema tensione, dove l'Executive Order sulla sicurezza dell'IA del 2023 cerca di bilanciare innovazione e controllo.

In conclusione, il caso dell'NSA e di Anthropic rappresenta un microcosmo delle tensioni che definiranno il prossimo decennio. La corsa all'intelligenza artificiale non è solo una competizione commerciale, ma una nuova frontiera della geopolitica. Se gli Stati Uniti vogliono mantenere la loro egemonia tecnologica, dovranno trovare un equilibrio tra la protezione dei segreti di Stato e l'adozione rapida delle innovazioni prodotte dalla Silicon Valley. Per ora, l'NSA sembra aver scelto la via del pragmatismo, puntando tutto sulla potenza di calcolo per proteggere il futuro digitale della nazione, anche a costo di sfidare le direttive centrali del Pentagono. Questo scontro interno rivela quanto l'IA sia diventata fondamentale per la sovranità nazionale e quanto sia complesso gestire il potere di algoritmi che potrebbero definire i vincitori e i vinti nelle guerre informatiche del futuro.

Pubblicato Martedì, 21 Aprile 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Martedì, 21 Aprile 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti