La società Anthropic non ha perso tempo nel contestare la sua inclusione nella lista dei fornitori non affidabili del Pentagono, avviando un'azione legale che vede ora il sostegno di figure chiave di OpenAI e Google . Nonostante non si tratti di un supporto formale da parte delle aziende, quasi 40 dipendenti, tra cui Jeff Dean, responsabile dello sviluppo di Gemini, hanno presentato un documento legale per fornire al giudice una visione più completa della controversia.
Secondo i firmatari, l'inserimento di Anthropic nella lista nera appare come una ritorsione che danneggia l'interesse pubblico. Essi sostengono che le "linee rosse" delineate da Anthropic, relative all'uso dell'intelligenza artificiale (IA), sono reali e meritano risposte concrete. In particolare, esprimono preoccupazione per i rischi derivanti da strumenti di sorveglianza di massa e sistemi d'arma completamente autonomi, anche se gestiti da mani responsabili.
Gli esperti di OpenAI e Google si definiscono scienziati, sviluppatori e ingegneri impegnati nella creazione di sistemi avanzati di IA negli Stati Uniti. La loro iniziativa non mira a favorire una specifica azienda, ma a tutelare gli interessi dell'intero settore. Essi si ritengono in grado di avvertire le autorità statunitensi sulle potenziali conseguenze negative dell'uso dell'IA in ambito militare e di intelligence.
Attualmente, i dati sui cittadini statunitensi sono frammentati, ma l'IA potrebbe essere utilizzata per unire questi dati e analizzarli in tempo reale, creando dossier dettagliati su centinaia di milioni di persone. Questo solleva serie preoccupazioni sulla privacy e le libertà civili.
Un altro aspetto critico riguarda l'impiego dell'IA nei sistemi d'arma. Gli esperti mettono in guardia sui possibili errori dovuti alle differenze tra le condizioni di addestramento dei modelli di IA e le reali situazioni sul campo di battaglia. A differenza degli esseri umani, l'IA non è in grado di valutare i danni collaterali nella selezione degli obiettivi. Inoltre, la tendenza dell'IA alle "allucinazioni" (generazione di risposte errate o senza senso) rende il suo utilizzo militare ancora più pericoloso senza un adeguato controllo umano.
In conclusione, gli esperti ritengono che, allo stato attuale della tecnologia, le applicazioni dell'IA proposte dal Pentagono rappresentino un pericolo significativo e richiedano limitazioni tecniche o amministrative. La discussione solleva interrogativi fondamentali sull'etica dell'IA e sulla necessità di regolamentare il suo utilizzo in settori sensibili come la difesa e la sicurezza nazionale. Il caso Anthropic potrebbe rappresentare un punto di svolta nel dibattito sull'IA responsabile e sui suoi limiti.

