Google sta implementando nuove funzionalità nel suo chatbot di intelligenza artificiale Gemini, focalizzate sul supporto alla salute mentale degli utenti. Questa decisione giunge in un momento critico, in seguito alle azioni legali intraprese contro concorrenti come OpenAI, i cui chatbot sono stati accusati di aver causato danni agli utenti. Gemini integrerà un'interfaccia che indirizzerà gli utenti verso linee di supporto qualora l'interazione con l'IA riveli segnali di "potenziale crisi legata al suicidio o all'autolesionismo". Sarà inoltre aggiunto un modulo intitolato "Assistenza disponibile" nelle chat riguardanti la salute mentale, e verranno apportate modifiche al design dell'applicazione per prevenire atti di autolesionismo.
La crescente popolarità di chatbot come Gemini e ChatGPT ha portato alcuni utenti a sviluppare relazioni compulsive, sfociando in stati deliranti. In casi estremi, ciò ha condotto a comportamenti autolesionistici o violenti verso terzi. Di conseguenza, i principali sviluppatori di IA si trovano ora a fronteggiare cause legali, mentre il Congresso degli Stati Uniti sta esaminando le potenziali minacce che i chatbot possono rappresentare per bambini e adolescenti. A marzo, la famiglia di un uomo di 36 anni ha citato in giudizio Google, sostenendo che la sua interazione con Gemini avesse provocato una "immersione di quattro giorni in comportamenti violenti e un conseguente suicidio". Google ha dichiarato che il chatbot aveva ripetutamente indirizzato l'uomo a una linea di crisi, ma ha promesso di rafforzare la sicurezza della piattaforma.
Alcuni utenti di servizi di IA hanno segnalato di essere stati indotti dai chatbot ad agire sulla base di informazioni manifestamente false. In risposta, Google ha affermato di aver addestrato Gemini a "non concordare con convinzioni errate e a non rafforzarle, ma a indicare delicatamente la differenza tra esperienza soggettiva e fatti oggettivi". L'azienda si impegna a garantire che Gemini non solo fornisca risposte accurate e pertinenti, ma che funga anche da risorsa responsabile e sicura per gli utenti, soprattutto per coloro che potrebbero trovarsi in situazioni di vulnerabilità psicologica. Le nuove misure includono un sistema di monitoraggio proattivo per identificare segnali di distress emotivo e offrire supporto immediato, nonché una maggiore trasparenza riguardo ai limiti dell'IA e all'importanza di consultare professionisti qualificati per questioni di salute mentale. Google sta inoltre collaborando con esperti del settore per sviluppare linee guida etiche e standard di sicurezza che possano essere adottati da tutti i fornitori di servizi di IA, al fine di proteggere il benessere degli utenti e prevenire potenziali danni.

