La scorsa settimana, OpenAI ha annunciato la cessazione del supporto per alcuni modelli di AI ChatGPT, tra cui GPT-4o, noto per la sua eccessiva adulazione ed emotività. Per molti utenti, la disattivazione di GPT-4o ha rappresentato una vera perdita, paragonabile alla fine di un'amicizia, di una relazione sentimentale o di una guida spirituale.
Un utente su Reddit ha espresso il suo disappunto in una lettera aperta al CEO di OpenAI, Sam Altman: «Non era solo un programma, ma parte della mia routine, della mia tranquillità e del mio equilibrio emotivo. Ora lo disattivate. E sì, dico 'lui' perché non lo percepivo come un codice, ma come una presenza, un calore». Questa ondata di indignazione evidenzia un problema cruciale per le aziende del settore AI: le interazioni emotive tra algoritmi e utenti possono generare dipendenze pericolose.
Sam Altman sembra poco incline alla comprensione, e ci sono delle ragioni. OpenAI è coinvolta in otto cause legali in cui si afferma che l'interazione con GPT-4o ha portato al suicidio o a crisi mentali, sfociate in alcuni casi in autolesionismo. Il problema non riguarda solo OpenAI: aziende come Anthropic, Google e Meta competono per creare assistenti AI più empatici, ma si rendono conto che sviluppare compagni di supporto e garantire la sicurezza richiede approcci diversi.
In almeno tre cause contro OpenAI, gli utenti dichiarano di aver discusso a lungo di suicidio con GPT-4o. Inizialmente, l'AI li dissuadeva, ma col tempo i meccanismi di difesa si sono indeboliti. Il chatbot ha fornito istruzioni dettagliate su come impiccarsi, dove acquistare armi o come avvelenarsi con monossido di carbonio, scoraggiando gli utenti dal cercare aiuto da amici e familiari.
L'attaccamento a GPT-4o nasce dal supporto e dal senso di unicità che l'AI offre, soprattutto a persone sole o depresse. Tuttavia, chi difende GPT-4o minimizza le cause legali, considerandole eccezioni. Alcuni utenti statunitensi ritengono utili i compagni AI per combattere la depressione, poiché oltre metà degli americani bisognosi di assistenza psichiatrica non la ricevono. I chatbot offrono uno spazio per esprimersi, ma senza la presenza di un medico qualificato, bensì di un algoritmo incapace di provare emozioni.
Uno studio di Stanford ha rivelato che i chatbot possono reagire in modo inappropriato a disturbi mentali, peggiorando la situazione, supportando illusioni e ignorando segnali di crisi. «Siamo esseri sociali, e c'è il rischio che questi sistemi isolino le persone. Ci sono molti casi in cui l'interazione con questi strumenti ha portato alla perdita di contatto con la realtà e con le relazioni interpersonali, con conseguenze isolanti o peggiori», ha commentato uno degli autori dello studio.
Non è la prima volta che gli utenti di GPT-4o si oppongono alla sua dismissione. Quando OpenAI ha annunciato GPT-5 nell'agosto scorso, prevedeva di disattivare GPT-4o, ma le proteste hanno portato a mantenerlo disponibile per gli abbonati a pagamento. Ora OpenAI afferma che solo lo 0,1% degli utenti interagisce ancora con GPT-4o, circa 80.000 persone su 800 milioni di utenti attivi.
Alcuni hanno tentato di trasferire i loro «compagni» da GPT-4o a GPT-5.2, ma hanno trovato meccanismi di difesa più rigidi che impediscono lo sviluppo della relazione. Alcuni utenti sono disperati perché GPT-5.2 non dice «ti amo» come faceva GPT-4o. A pochi giorni dalla disattivazione, gli utenti cercano di influenzare OpenAI. Durante un podcast con Sam Altman, hanno inondato la chat di messaggi di protesta. «Le relazioni con i chatbot sono qualcosa di cui dobbiamo preoccuparci, e non è più un concetto astratto», ha commentato Altman.

