La scorsa settimana, una controversia riguardante la collaborazione tra Anthropic e il Dipartimento della Difesa degli Stati Uniti ha portato all'esclusione dell'azienda dalla lista dei fornitori affidabili e alla perdita di tutti i contratti governativi. Secondo quanto riportato da The Atlantic, nonostante i tentativi di entrambe le parti di appianare le divergenze nelle fasi avanzate delle trattative, non è stato possibile raggiungere un accordo.
Anthropic ha espresso preoccupazioni riguardo all'utilizzo dei suoi sistemi di intelligenza artificiale per la sorveglianza di massa dei cittadini statunitensi e per i sistemi d'arma a guida autonoma, capaci di identificare e neutralizzare obiettivi in autonomia. Fonti rivelano che, fino alla mattinata di venerdì, i rappresentanti del Dipartimento della Difesa americano si erano mostrati disponibili a includere restrizioni specifiche nel contratto, pur riservandosi il diritto di utilizzare l'IA per la sorveglianza dei cittadini e la gestione dei sistemi d'arma in circostanze eccezionali.
I rappresentanti di Anthropic speravano che tali eccezioni non sarebbero state incluse, ma la situazione non si è evoluta come auspicato, portando alla rottura dell'accordo. La principale ragione di questa decisione risiede nelle intenzioni delle autorità statunitensi di impiegare l'IA di Anthropic per analizzare i dati raccolti sull'attività dei cittadini americani. Conversazioni con chatbot, social media, cronologia delle ricerche su Google, spostamenti tracciati tramite GPS, transazioni bancarie: tutti questi dati avrebbero potuto essere analizzati e correlati per conto delle strutture governative statunitensi. Questa prospettiva era inaccettabile per Anthropic, diventando il punto critico nella fine dell'accordo con il Pentagono.
Per quanto riguarda la gestione dei sistemi d'arma, Anthropic non si è opposta all'idea in sé, ma ha cercato di renderla più sicura. La dirigenza dell'azienda ritiene che, allo stato attuale, l'IA non sia sufficientemente avanzata per gestire gli armamenti in modo completamente autonomo. Durante le negoziazioni, Anthropic ha insistito affinché la sua IA fosse utilizzata dai militari solo all'interno di un'infrastruttura cloud, senza estendersi al livello periferico, ovvero all'interno di droni o altri dispositivi autonomi di distruzione. In questo modo, eventuali errori fatali commessi dai droni non avrebbero potuto essere imputati direttamente all'IA di Anthropic.
Il Pentagono non è stato in grado di garantire tale separazione, poiché l'architettura moderna di gestione delle risorse militari non prevede una distinzione netta tra cloud computing e calcolo periferico. Anthropic ha concluso che non sarebbe stato possibile isolare la propria IA nel cloud, e che quindi era preferibile evitare del tutto il coinvolgimento nella gestione degli armamenti.
È degno di nota il comportamento della concorrente OpenAI, il cui leader, Sam Altman, ha espresso solidarietà ad Anthropic poche ore prima di annunciare un accordo con il Pentagono per l'utilizzo dell'IA di OpenAI nei sistemi segreti del dipartimento militare americano. Altman ha condiviso la sua visione della situazione con Anthropic, sostenendo che, in questioni di tale portata, l'ultima parola spetta allo stato e non alle aziende private.
Questo episodio evidenzia le crescenti preoccupazioni etiche e di sicurezza legate all'impiego dell'intelligenza artificiale in contesti militari e di sorveglianza. Mentre alcune aziende, come OpenAI, sembrano più disposte a collaborare con le autorità governative, altre, come Anthropic, sollevano interrogativi fondamentali sui limiti e le responsabilità dell'IA, aprendo un dibattito cruciale sul futuro di questa tecnologia e sul suo impatto sulla società.
Le implicazioni di questa vicenda vanno oltre la semplice rottura di un contratto. Esse pongono interrogativi profondi sul ruolo delle aziende tecnologiche nello sviluppo di sistemi potenzialmente lesivi delle libertà civili e sulla necessità di stabilire standard etici e legali chiari per l'utilizzo dell'IA in ambito militare e di sicurezza. La decisione di Anthropic, seppur onerosa in termini economici, rappresenta un segnale forte a favore di un approccio responsabile e consapevole all'innovazione tecnologica.

