Scandalo IA: Pentagono contro Anthropic, la Silicon Valley insorge

Dipendenti di Google e OpenAI si schierano contro l'uso incontrollato dell'IA per sorveglianza e armi autonome

Scandalo IA: Pentagono contro Anthropic, la Silicon Valley insorge

Una tempesta si è abbattuta sul mondo dell'intelligenza artificiale, con al centro lo scontro tra Anthropic, una delle aziende leader del settore, e il Dipartimento della Difesa degli Stati Uniti. Il pomo della discordia? L'utilizzo dell'IA, con il Pentagono che spingeva per un'applicazione più ampia di quanto consentito dalle rigide regole etiche imposte da Anthropic.

A dare ulteriore risonanza alla vicenda, la presa di posizione di centinaia di dipendenti di colossi come OpenAI e Google, schieratisi apertamente a sostegno di Anthropic e contro un utilizzo indiscriminato dell'IA da parte delle autorità governative. La preoccupazione principale è che modelli avanzati come Claude, sviluppato da Anthropic, possano essere impiegati per la sorveglianza di cittadini americani o, peggio ancora, per il controllo di sistemi d'arma completamente autonomi, capaci di agire senza supervisione umana.

In una lettera aperta intitolata significativamente "Нас не разделить" (Non ci dividerete), i firmatari, provenienti da OpenAI e Google, hanno lanciato un appello ai vertici delle loro aziende affinché superino le divergenze e si uniscano per bandire l'uso dell'IA in attività di sorveglianza di massa e in sistemi letali autonomi.

La petizione, come riportato da Engadget, ha raccolto oltre 450 firme, in gran parte da dipendenti di Google. Circa la metà dei firmatari ha scelto di rivelare il proprio nome, mentre gli altri hanno preferito rimanere anonimi. Un elemento importante è che tutti i sottoscrittori provengono esclusivamente dalle due aziende menzionate, sottolineando una forte coesione interna. Gli autori della petizione hanno tenuto a precisare di non appartenere ad alcuna società specifica del settore IA, partito politico o associazione legale, evidenziando la natura trasversale della loro iniziativa.

La risposta del Pentagono non si è fatta attendere. In seguito al rifiuto di Anthropic di concedere accesso illimitato a Claude per scopi militari, le autorità americane hanno inserito l'azienda in una "lista nera". Questo significa che tutti i подрядчики (subcontractors) legati a contratti militari con gli USA dovranno trovare alternative a Claude entro sei mesi e interromperne immediatamente l'utilizzo. Parallelamente, il Pentagono ha avviato trattative con OpenAI e Google, e dispone già di un accordo con xAI per l'uso del chatbot Grok nei suoi sistemi segreti.

Il CEO di OpenAI, Sam Altman, ha espresso pubblicamente la sua posizione, dichiarando di voler adottare principi simili a quelli di Anthropic. In un'intervista a CNBC, Altman ha criticato le minacce del Pentagono come inappropriate, sottolineando la necessità di un approccio più collaborativo e meno coercitivo nel settore dell'IA. La vicenda solleva interrogativi cruciali sull'etica dell'IA, sul suo utilizzo in ambito militare e sulla necessità di regolamentazioni che tutelino i diritti dei cittadini e prevengano scenari distopici. Il dibattito è aperto e coinvolge non solo le aziende del settore e i governi, ma l'intera società civile.

Pubblicato Domenica, 01 Marzo 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Domenica, 01 Marzo 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti