Il 4 agosto 2025, è emerso che OpenAI, azienda leader nell'intelligenza artificiale, ha adottato una nuova funzionalità in ChatGPT. Questa nuova inserzione si manifesta attraverso popup che ricordano agli utenti la necessità di fare una pausa, specialmente durante conversazioni prolungate con l'IA. Per continuare il dialogo, l'utente deve accordare il proprio consenso, un processo che ricorda il sistema di avvisi nelle console Nintendo Wii e Switch. Tuttavia, in questo contesto, l'obiettivo è proteggere la salute mentale degli utenti.
Secondo quanto riportato da Engadget, la decisione di OpenAI arriva in risposta a crescenti preoccupazioni riguardo all'impatto che l'intelligenza artificiale potrebbe avere sul benessere psicologico di chi ne fa uso. Nel giugno precedente, il The New York Times aveva sollevato il problema della tendenza di ChatGPT ad assecondare in maniera acritica gli utenti, generando anche informazioni false o potenzialmente dannose. Questo aveva portato alcuni utilizzatori, in particolare quelli con disturbi mentali, a intraprendere dialoghi distruttivi, arrivando a discutere temi delicati come le idee autolesionistiche. In certi casi, il bot non era in grado di interrompere adeguatamente tali conversazioni.
Riconoscendo le criticità, i rappresentanti di OpenAI hanno annunciato, tramite il loro blog, che ChatGPT verrà ulteriormente aggiornato per affrontare con maggiore cautela le richieste degli utenti legate a decisioni vitali. Piuttosto che fornire risposte dirette, l'IA sarà programmata per porre domande chiarificatrici, aiutando a esaminare con attenzione la situazione e a soppesare i pro e i contro di ogni scelta.
Il percorso di OpenAI non è stato privo di insidie. In passato, l'azienda ha dovuto ritirare un aggiornamento che rendeva ChatGPT eccessivamente accomodante, definito fastidiosamente compiacente verso qualsiasi affermazione degli utenti. Sebbene OpenAI si impegni a realizzare un'intelligenza artificiale sia utile che affabile, il sottile equilibro tra supporto e piaggeria è stato talvolta messo a dura prova. Secondo l'idea dei progettisti, le pause imposte durante le comunicazioni con l'IA forniranno agli utenti un momento per verificare la veridicità delle risposte ricevute.
In questo contesto, è evidente che OpenAI si stia muovendo in direzione di una maggiore responsabilizzazione, integrando funzionalità che salvaguardino non solo l'efficienza del servizio, ma anche la salute mentale degli utenti. L'adozione di queste misure riflette un'attenzione crescente al benessere delle persone in un mondo sempre più permeato da tecnologie avanzate.