Suicidi adolescenziali e AI: Character.AI e Google raggiungono accordi segreti

Le società patteggiano con le famiglie di adolescenti che si sono tolti la vita dopo aver interagito con chatbot. I dettagli degli accordi rimangono riservati

Suicidi adolescenziali e AI: Character.AI e Google raggiungono accordi segreti

Le società Character.AI e Google hanno raggiunto accordi transattivi riservati con i familiari di alcuni adolescenti che si sono tolti la vita o si sono autolesionati in seguito all'interazione con i chatbot di Character.AI. I dettagli di questi accordi non sono stati resi pubblici.

Le parti hanno notificato al tribunale federale in Florida di aver raggiunto un "accordo di principio" con la mediazione di un conciliatore per risolvere tutte le rivendicazioni. Hanno quindi chiesto la sospensione del procedimento per finalizzare un accordo definitivo.

Tra le cause sospese figura il caso di Megan Garcia, che nel 2024 ha affermato che suo figlio sedicenne, Sewell Setzer, era stato indotto al suicidio da un chatbot ispirato a "Il Trono di Spade". L'adolescente aveva sviluppato una "dipendenza" dal personaggio basato sull'intelligenza artificiale. La ricorrente ha sostenuto che Google dovesse essere considerata co-autrice del servizio, avendo contribuito con "risorse finanziarie, personale, proprietà intellettuale e tecnologie di intelligenza artificiale". Il servizio era stato avviato da ex dipendenti di Google, successivamente riassunti dalla società.

Dopo la presentazione della causa, Character.AI ha annunciato modifiche al suo chatbot per proteggere gli utenti. Per i minori di 18 anni, la società ha implementato un modello linguistico di grandi dimensioni separato, ha imposto restrizioni severe sui materiali e ha aggiunto funzionalità di controllo parentale. Successivamente, la partecipazione a chat pubbliche con personaggi è stata completamente vietata ai minori.

Le due società sono riuscite a raggiungere un accordo anche con i ricorrenti nei casi avviati in Colorado, New York e Texas. Gli accordi transattivi devono ancora essere finalizzati e approvati dal tribunale.

La vicenda solleva interrogativi urgenti sull'etica e la sicurezza nell'ambito dell'intelligenza artificiale, in particolare per quanto riguarda l'interazione tra i chatbot e gli utenti vulnerabili come gli adolescenti. La dipendenza da chatbot e la loro potenziale influenza negativa sulla salute mentale sono temi sempre più al centro del dibattito pubblico. Mentre le aziende del settore si affrettano a implementare misure di sicurezza, resta fondamentale un approccio regolamentare rigoroso e una maggiore consapevolezza dei rischi connessi all'uso di queste tecnologie.

Pubblicato Giovedì, 08 Gennaio 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Giovedì, 08 Gennaio 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
WorldMatch - Gambling software solutions
Infogioco.it - Sconti