Una settimana fa, Anthropic è entrata in conflitto con la leadership del dipartimento militare americano riguardo alla definizione dei limiti dell'uso ammissibile dell'intelligenza artificiale in ambito militare e della sorveglianza dei cittadini statunitensi. La leadership della startup ora afferma che le conseguenze dell'inserimento nella "lista nera" del Pentagono avranno un impatto minimo sulla sua attività.
Il CEO di Anthropic, Dario Amodei, ha recentemente confermato di aver ricevuto una notifica ufficiale dal Dipartimento della Difesa degli Stati Uniti che informava dell'inclusione della sua azienda in un elenco di fornitori inaffidabili. Si presumeva che questo divieto di cooperazione con Anthropic avrebbe costretto molti appaltatori di agenzie governative statunitensi a rinunciare all'uso dei servizi di intelligenza artificiale di questa società. Le entrate annualizzate di Anthropic hanno recentemente superato i 19 miliardi di dollari, ma, come molti concorrenti, Anthropic continua a essere non redditizia. Tuttavia, la sua marcata dipendenza dal mercato aziendale le ha permesso fino a poco tempo fa di aspettarsi di raggiungere il pareggio più rapidamente rispetto alla stessa OpenAI.
Come ha sottolineato il capo di Anthropic, il divieto sull'uso dei suoi prodotti da parte degli appaltatori del Dipartimento della Difesa degli Stati Uniti si applica solo direttamente ai contratti con questo dipartimento, e non a tutte le altre attività delle società interessate. In altre parole, anche gli appaltatori del Pentagono potranno continuare a utilizzare le soluzioni Anthropic in quelle aree che non sono correlate ai contratti con questo dipartimento. L'uso dei modelli di intelligenza artificiale di Anthropic nei sistemi di Palantir sarà interrotto, e sono proprio questi sistemi ad aiutare l'esercito americano a scegliere i bersagli durante gli attacchi all'Iran in questo momento. Diversi altri dipartimenti governativi americani hanno già annunciato la loro decisione di rinunciare ai servizi di Anthropic. Allo stesso tempo, Dario Amodei ha sottolineato di non ritenere legale l'inserimento di Anthropic in questo elenco e quindi non ha altra scelta che rivolgersi al tribunale per contestare questa decisione.
I rappresentanti del Dipartimento della Difesa degli Stati Uniti hanno specificamente notato che il dipartimento ha inizialmente aderito al principio che i militari hanno il diritto di utilizzare le tecnologie Anthropic per raggiungere qualsiasi scopo legittimo. Il Pentagono non permetterà mai a un fornitore di interferire nella catena di comando, limitando l'uso legittimo di tecnologie critiche, mettendo così a rischio il personale militare. Dario Amodei non ha negato di aver partecipato a contatti piuttosto produttivi con i rappresentanti del Dipartimento della Difesa degli Stati Uniti negli ultimi giorni e spera di fornirgli servizi il più a lungo possibile. Il vice segretario alla Difesa degli Stati Uniti, Emil Michael, ha sottolineato che al momento tutti i negoziati tra il dipartimento e Anthropic sono stati interrotti. Il capo di Anthropic ha dovuto scusarsi per le sue recenti osservazioni aspre nei confronti del Pentagono e di altri partecipanti al mercato, che ha fatto in un appello scritto ai dipendenti della sua azienda. Ha osservato che il tono delle dichiarazioni non riflette la sua visione ponderata della situazione.
La disputa tra Anthropic e il Pentagono evidenzia le crescenti preoccupazioni sull'uso dell'intelligenza artificiale in contesti militari. La questione centrale riguarda la definizione di limiti etici e legali nell'impiego di tali tecnologie, soprattutto in relazione alla sicurezza dei civili e alla gestione delle operazioni belliche. La decisione del Pentagono di includere Anthropic nella lista nera riflette una posizione ferma sulla necessità di mantenere il controllo sull'uso delle tecnologie critiche, evitando interferenze che possano compromettere la sicurezza dei militari. Tuttavia, la reazione di Anthropic, che ha annunciato un ricorso legale, sottolinea la complessità della questione e la volontà di difendere la propria posizione. Questo scontro potrebbe avere ripercussioni significative sul futuro dell'intelligenza artificiale nel settore della difesa, aprendo un dibattito più ampio sui rischi e benefici di queste tecnologie.
L'evoluzione di questa vicenda sarà cruciale per comprendere come le aziende tecnologiche e i governi affronteranno le sfide etiche e legali legate all'uso dell'IA in contesti sensibili come quello militare. La trasparenza e la collaborazione tra i diversi attori coinvolti saranno fondamentali per garantire che l'intelligenza artificiale sia utilizzata in modo responsabile e sicuro, nel rispetto dei diritti umani e delle leggi internazionali. Resta da vedere come si svilupperà la battaglia legale tra Anthropic e il Pentagono, e quali saranno le conseguenze per il futuro dell'IA nel settore della difesa.

