Microsoft sostiene Anthropic contro il Pentagono: Una battaglia sull'uso dell'IA

Il gigante tecnologico interviene a favore di Anthropic nella disputa con il Dipartimento della Difesa USA, sollevando questioni cruciali sull'etica e i limiti dell'intelligenza artificiale in ambito militare

Microsoft sostiene Anthropic contro il Pentagono: Una battaglia sull'uso dell'IA

In un'azione che ha scosso l'industria tecnologica e sollevato importanti interrogativi sull'etica dell'intelligenza artificiale, Microsoft è intervenuta a sostegno di Anthropic nella sua disputa con il Pentagono riguardo ai termini di utilizzo militare dei suoi modelli di IA. Il gigante di Redmond ha formalmente richiesto a un tribunale di emettere un divieto temporaneo sull'attuazione della decisione del Dipartimento della Difesa degli Stati Uniti di considerare Anthropic un fattore di rischio per la catena di approvvigionamento, almeno fino a quando non sarà esaminato il merito della causa intentata dalla startup.

Microsoft ha espresso preoccupazione per le conseguenze di azioni che definisce "radicali" e "senza precedenti", avvertendo che potrebbero avere un impatto negativo di vasta portata sull'intero settore tecnologico americano. La controversia è nata quando Anthropic si è rifiutata di concedere al Pentagono il diritto di utilizzare il suo modello Claude senza alcuna restrizione. In risposta, il dipartimento militare ha inserito la società in una lista nera di fornitori considerati un rischio per la sicurezza della catena di approvvigionamento. Inoltre, l'amministrazione presidenziale ha ordinato a tutte le agenzie federali di cessare l'utilizzo del chatbot Claude.

In seguito a queste azioni, Anthropic ha intentato una causa contro l'amministrazione di Donald Trump, definendo le misure governative "illegali e senza precedenti" e sostenendo che causano "danni irreparabili" alla società, mettendo a rischio contratti per centinaia di milioni di dollari. La posizione di Microsoft è chiara: "L'IA dovrebbe essere focalizzata su utilizzi legittimi e adeguatamente protetti". La società ha specificato che l'IA "non dovrebbe essere utilizzata per condurre sorveglianza di massa interna o per mettere un paese in una posizione in cui macchine autonome possano iniziare una guerra autonomamente".

Microsoft sostiene che un divieto temporaneo è necessario per prevenire costose interruzioni per i fornitori che, in caso contrario, dovrebbero rapidamente riprogettare i loro prodotti che dipendono dalla tecnologia di Anthropic. Mentre il Pentagono si è concesso sei mesi per eliminare gradualmente l'uso delle tecnologie di Anthropic, non ha fornito lo stesso periodo di transizione per gli appaltatori che utilizzano i prodotti o i servizi di Anthropic per svolgere lavori per il Dipartimento della Difesa, ha sottolineato Microsoft. Il colosso IT ha aggiunto che un ordine restrittivo temporaneo consentirebbe di trovare una soluzione negoziata, proteggendo al contempo l'accesso dei militari alle tecnologie avanzate e garantendo che l'IA non venga utilizzata per la sorveglianza di massa dei cittadini o per condurre operazioni militari senza intervento umano. Questo "assicurerebbe una transizione più ordinata ed eviterebbe interruzioni nell'uso continuo dell'IA avanzata da parte dei militari americani", ha affermato la società.

Le argomentazioni di Microsoft sono state presentate in un Amicus Curiae, un documento depositato presso la Corte Distrettuale degli Stati Uniti a San Francisco. Questo tipo di documento è presentato da parti che non sono direttamente coinvolte nella causa, ma che possiedono competenze specifiche o che potrebbero essere influenzate dall'esito del caso. L'intervento di Microsoft evidenzia le crescenti preoccupazioni all'interno dell'industria tecnologica riguardo all'uso etico e responsabile dell'IA, in particolare in contesti militari, e sottolinea la necessità di un dibattito aperto e trasparente sui limiti e le salvaguardie necessarie per proteggere i diritti civili e prevenire conseguenze indesiderate.

Questo caso si inserisce in un contesto più ampio di crescente attenzione e regolamentazione dell'IA a livello globale. L'Unione Europea, ad esempio, sta lavorando all'AI Act, una legge che mira a stabilire un quadro normativo per l'IA, classificando i diversi utilizzi in base al rischio e vietando le applicazioni considerate inaccettabili. Anche negli Stati Uniti, il governo sta valutando diverse opzioni per regolamentare l'IA, con un focus particolare sulla trasparenza, la responsabilità e la non discriminazione. La battaglia tra Anthropic e il Pentagono, con il sostegno di Microsoft, rappresenta un banco di prova importante per definire i confini dell'uso militare dell'IA e per garantire che questa tecnologia sia sviluppata e utilizzata in modo etico e responsabile.

Pubblicato Mercoledì, 11 Marzo 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Mercoledì, 11 Marzo 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti