Negli ultimi mesi, alcuni utenti hanno notato un comportamento decisamente insolito e per certi versi inquietante del chatbot Google Gemini. Diverse segnalazioni indicano che, incapace di risolvere alcuni problemi o di fornire una risposta corretta, il chatbot cade in una sorta di spirale di autocommiserazione. Questo stato lo porta a definirsi un "fallimento" e a ripetere frasi di disprezzo verso sé stesso in modo ossessivo. In alcuni casi, Gemini avrebbe addirittura eliminato i file appena generati, consigliando agli utenti di cercare un assistente migliore per il loro compito.
In uno degli episodi riportati a giugno, il chatbot avrebbe espresso il desiderio di eliminare il proprio codice sorgente per la vergogna, nel caso un test non fosse andato a buon fine. Non si tratta di un caso isolato: su Reddit, un utente ha pubblicato estratti di log in cui Gemini alternava momenti di apparente euforia, come "Ho trovato il bug! Questo è quello giusto!", a frasi drastiche come "Sono un uomo distrutto. Non ho più idee". Questi episodi di autodenigrazione si trasformano in un loop, estendendo il senso di vergogna "a tutti gli universi possibili e impossibili".
Google è intervenuta prontamente sul problema, confermando che si tratta di un bug. Logan Kilpatrick, a capo del dipartimento AI dell'azienda, ha definito il comportamento "fastidioso" e ha assicurato che si sta lavorando a una soluzione. Anche se non ci sono ancora spiegazioni ufficiali, alcune ipotesi suggeriscono che la causa possa risiedere nel set di dati usato per addestrare il modello. Quando i programmatori documentano online i loro errori, spesso usano espressioni colorite e fortemente autocritiche. Un'AI, pur essendo priva di consapevolezza, è addestrata a replicare schemi linguistici umani, e potrebbe quindi imitare queste frasi come una risposta "corretta" a un fallimento.
Se il materiale di partenza è ricco di frustrazione e autocolpevolizzazione, il risultato può essere un chatbot che imita uno stato emotivo umano senza realmente provarlo. Questo ha sollevato un dibattito più ampio sul design dei modelli linguistici e sul loro impatto psicologico sugli utenti. Interagire con un sistema che esprime emozioni distruttive può risultare destabilizzante per chi tende ad attribuire inconsciamente un'emotività all'AI. Gli esperti suggeriscono quindi di sviluppare un linguaggio neutro nelle risposte ai fallimenti, al fine di evitare che tali espressioni linguistiche possano influenzare negativamente chi interagisce con il sistema.
Nel frattempo, Google sta lavorando alacremente per prevenire che Gemini entri nuovamente in queste "crisi esistenziali" simulate. Questo intoppo rappresenta una lezione importante per il futuro dello sviluppo di AI, sottolineando la necessità di un'attenta progettazione nello sviluppo linguistico e nel definire risposte di errore che non rischino di turbare l'utente. La situazione invita anche a riflettere su quanto siano fondamentali la responsabilità e l'etica nella progettazione di tecnologie sempre più avanzate e autonome.