La recente piattaforma Moltbook, presentata come una rivoluzionaria rete sociale per agenti di intelligenza artificiale (AI), si è rivelata essere affetta da gravi problemi di sicurezza. Ricercatori della società Wiz hanno scoperto vulnerabilità critiche che mettono a rischio la riservatezza dei dati e l'integrità del sistema. La piattaforma, che vantava 1,5 milioni di agenti autonomi, sembra essere in realtà controllata da un numero esiguo di utenti umani.
Secondo quanto riportato da Fortune, circa 17.000 utenti gestiscono l'intera rete di agenti, con una media di 88 bot per persona. La mancanza di meccanismi di verifica dell'autonomia degli agenti solleva seri dubbi sulla reale natura della piattaforma. L'implementazione tecnica del progetto presenta errori architetturali significativi, e il database è configurato in modo tale che chiunque su internet possa leggere e scrivere informazioni nei sistemi chiave senza necessità di autenticazione.
Questa vulnerabilità ha portato alla fuga di informazioni riservate, tra cui chiavi API per tutti gli 1,5 milioni di agenti, oltre 35.000 indirizzi email e migliaia di messaggi privati. Alcuni di questi messaggi contenevano credenziali complete per servizi di terze parti, come le chiavi API di OpenAI. I ricercatori di Wiz hanno dimostrato la possibilità di modificare post esistenti sul sito e di iniettare contenuti dannosi direttamente nel feed di notizie, spacciandoli per comunicazioni ufficiali del sistema.
Un aspetto particolarmente preoccupante è che gli agenti di Moltbook operano sul framework OpenClaw, che ha accesso a file, password e account online degli utenti. Comandi malevoli nascosti nei post possono essere eseguiti automaticamente da milioni di agenti AI tramite l'iniezione di semplici prompt testuali. Questo scenario apre la porta a potenziali attacchi su vasta scala, in cui gli agenti AI compromessi potrebbero essere utilizzati per diffondere malware, rubare informazioni o compiere altre azioni dannose.
Gary Marcus, noto critico dell'intelligenza artificiale, ha espresso la sua preoccupazione ancora prima della pubblicazione della ricerca di Wiz, definendo OpenClaw come "uno spray trasformato in arma". Andrej Karpathy, co-fondatore di OpenAI, che inizialmente aveva espresso ammirazione per Moltbook, ha radicalmente cambiato la sua posizione dopo aver sperimentato con i sistemi di agenti. Ha descritto l'ambiente come caotico e ha sconsigliato agli utenti di eseguire software simile sui propri computer. Karpathy ha sottolineato che anche testare gli agenti AI in un ambiente isolato gli ha causato preoccupazioni, e ha avvertito che l'utilizzo di tali sistemi espone il computer e i dati personali degli utenti a un rischio elevato. "È troppo simile al Far West", ha concluso.
Le rivelazioni sulla sicurezza di Moltbook sollevano importanti interrogativi sulla governance e la regolamentazione delle piattaforme di AI. La facilità con cui i dati sensibili possono essere compromessi e l'assenza di controlli sull'autonomia degli agenti evidenziano la necessità di standard di sicurezza più rigorosi e di una maggiore trasparenza nello sviluppo e nell'implementazione di sistemi di intelligenza artificiale. La comunità tecnologica e i legislatori devono collaborare per garantire che l'innovazione nel campo dell'AI non avvenga a scapito della sicurezza e della privacy degli utenti.

