Il Dipartimento della Difesa degli Stati Uniti ha lanciato un ultimatum ad Anthropic, società di intelligenza artificiale (IA) all'avanguardia: concedere l'accesso completo alla sua tecnologia entro il 27 febbraio, o affrontare severe conseguenze. La notizia, riportata da Axios, evidenzia una crescente tensione tra il governo americano e le aziende tecnologiche che sviluppano IA, in particolare riguardo al suo utilizzo in ambito militare.
Durante un incontro ad alta tensione, il segretario alla Difesa Pete Hegseth ha comunicato al CEO di Anthropic, Dario Amodei, che il Pentagono potrebbe dichiarare la società una "minaccia alla catena di approvvigionamento" – una designazione solitamente riservata ai nemici stranieri – oppure invocare il Defense Production Act (DPA). Quest'ultimo, una legge che conferisce al presidente il potere di obbligare le aziende a dare priorità o espandere la produzione per esigenze di difesa, è stato utilizzato in passato, ad esempio durante la pandemia di COVID-19, per forzare General Motors e 3M a produrre ventilatori e mascherine.
La posta in gioco è alta. Anthropic, nota per il suo approccio etico allo sviluppo dell'IA, si oppone fermamente all'utilizzo della sua tecnologia per la sorveglianza di massa dei cittadini americani o per la creazione di armi completamente autonome. La società si rifiuta di scendere a compromessi su questi principi, ponendosi in rotta di collisione con le ambizioni del Pentagono. Quest'ultimo, dal canto suo, insiste sul fatto che l'uso militare dell'IA debba essere regolato dalle leggi e dai vincoli costituzionali degli Stati Uniti, e non dalle politiche di singoli appaltatori privati.
L'applicazione del DPA nel settore dell'IA rappresenterebbe un'espansione significativa della portata di questa legge. Fonti di Reuters confermano che Anthropic non intende allentare le restrizioni sull'uso dei suoi modelli, rendendo inevitabile lo scontro con il Pentagono.
Attualmente, Anthropic è l'unico laboratorio di IA avanzata i cui prodotti hanno accesso a materiali classificati del Ministero della Difesa. Questa posizione di monopolio, unita alla mancanza di alternative immediate (anche se si vocifera di un accordo preliminare tra il Pentagono e xAI per l'utilizzo di Grok in sistemi segreti), potrebbe spiegare la politica aggressiva del dipartimento. La perdita di accesso alla tecnologia di Anthropic creerebbe un vuoto strategico significativo per il Pentagono, rendendo comprensibile la sua determinazione a ottenere il controllo completo.
La vicenda solleva interrogativi cruciali sul futuro dell'IA e sul suo ruolo nella difesa nazionale. Il governo ha il diritto di forzare le aziende tecnologiche a piegarsi alle sue esigenze militari? Quali sono i limiti etici dell'utilizzo dell'IA in guerra? E come si possono bilanciare le preoccupazioni per la sicurezza nazionale con la protezione delle libertà civili e dei principi democratici? Le risposte a queste domande plasmeranno il futuro dell'IA e il suo impatto sulla società.
Nel frattempo, la pressione sul governo degli Stati Uniti aumenta. Diverse organizzazioni per i diritti civili e gruppi di esperti di tecnologia hanno espresso preoccupazione per il potenziale uso improprio dell'IA in ambito militare e per la mancanza di trasparenza e controllo pubblico. La richiesta di una regolamentazione più rigorosa e di un dibattito pubblico approfondito sull'etica dell'IA militare si fa sempre più forte.

