L'applicazione Claude sviluppata da Anthropic per dispositivi iOS ha conquistato la vetta della classifica delle app gratuite sull'App Store americano, superando ChatGPT di OpenAI e Google Gemini. Questo exploit è avvenuto in un momento particolarmente delicato, circa 24 ore dopo che l'amministrazione dell'ex presidente Donald Trump ha tentato di bandire i prodotti di Anthropic dalle agenzie governative a causa del rifiuto dell'azienda di collaborare con il Pentagono.
La popolarità in rapida ascesa dell'app Claude suggerisce che Anthropic stia beneficiando dell'attenzione mediatica generata dal suo rifiuto di fornire alle forze armate i propri algoritmi per la creazione di strumenti di sorveglianza o armi completamente autonome. Verso la fine della settimana, Trump ha pubblicato un post sulla piattaforma social Truth Social, definendo la decisione di Anthropic un "terribile errore". Quasi contemporaneamente, l'allora segretario alla difesa degli Stati Uniti, Pete Hegseth, ha espresso l'intenzione di dichiarare Anthropic una minaccia alla sicurezza nazionale, impedendo di fatto all'azienda di collaborare con agenzie governative e della difesa.
Storicamente, altre applicazioni di intelligenza artificiale (IA) sono state più popolari tra i consumatori rispetto a Claude. Attualmente, ChatGPT di OpenAI occupa la seconda posizione nella classifica dell'App Store, mentre Google Gemini si trova al quarto posto. L'app Claude ha guadagnato terreno costantemente negli ultimi mesi. Secondo i dati forniti dalla società di analisi Sensor Tower, il 30 gennaio si trovava al 131° posto nell'App Store americano, mentre per gran parte di febbraio si è attestata intorno alla ventesima posizione. Nello stesso periodo, ChatGPT ha mantenuto la prima posizione per la maggior parte del mese di febbraio.
Rispetto a gennaio, il numero di utenti gratuiti di Anthropic è aumentato del 60%, e le registrazioni giornaliere si sono triplicate rispetto allo scorso novembre. L'azienda ha anche sottolineato che, nel corso di quest'anno, il numero di abbonati a pagamento è più che raddoppiato. Questo successo potrebbe essere attribuito alla crescente consapevolezza del pubblico nei confronti delle questioni etiche legate all'intelligenza artificiale e alla preferenza per aziende che adottano un approccio responsabile e trasparente nello sviluppo e nell'implementazione delle loro tecnologie. La posizione di Anthropic, che rifiuta di collaborare a progetti militari potenzialmente dannosi, potrebbe aver contribuito a consolidare la sua immagine come azienda impegnata per un'IA etica e socialmente responsabile, attirando un numero crescente di utenti e abbonati.
Il caso di Anthropic solleva importanti interrogativi sul ruolo delle aziende tecnologiche nello sviluppo di armi autonome e sistemi di sorveglianza, e sulla necessità di stabilire linee guida etiche chiare per l'utilizzo dell'IA in ambito militare. La decisione di Anthropic di privilegiare i propri principi etici rispetto a potenziali profitti derivanti da contratti con il Pentagono rappresenta un segnale forte e potrebbe influenzare le scelte di altre aziende del settore.

