Nell'era dell'intelligenza artificiale, la protezione dei minori online diventa una priorità. OpenAI e Anthropic, due colossi del settore, hanno annunciato il potenziamento dei controlli e delle tutele per gli utenti under 18, rispondendo alle crescenti preoccupazioni sull'impatto dell'AI sulla salute mentale e sul benessere degli adolescenti.
OpenAI, creatrice di ChatGPT, ha aggiornato il Model Spec del suo chatbot, introducendo principi specifici per la fascia d'età 13-17 anni. La nuova linea guida pone la sicurezza al primo posto, anche a costo di limitare la libertà intellettuale che ha sempre caratterizzato questi sistemi. In pratica, ChatGPT dovrà indirizzare i giovani verso alternative più sicure quando le conversazioni toccano temi delicati o potenzialmente rischiosi. Tra i punti chiave, spicca la promozione delle relazioni offline e il consiglio di rivolgersi a persone di fiducia, riconoscendo i limiti del ruolo del chatbot. OpenAI sottolinea l'importanza di trattare gli adolescenti con rispetto e calore, evitando paternalismi e approcci adultocentrici.
Parallelamente, OpenAI sta sviluppando un modello di previsione dell'età, in grado di stimare se un utente sia minorenne e, in caso affermativo, attivare automaticamente le tutele previste. Gli adulti erroneamente identificati potranno comunque verificare la propria età.
Anche Anthropic, sviluppatrice del chatbot Claude, adotta una linea rigorosa, non consentendo l'uso del suo sistema ai minori di 18 anni. L'azienda sta affinando un sistema per individuare segnali linguistici che possano rivelare la presenza di un utente minorenne, con l'obiettivo di disattivare gli account non conformi. Anthropic dichiara di segnalare già i casi in cui gli utenti si dichiarano apertamente minorenni durante le interazioni.
Entrambe le aziende stanno lavorando per migliorare la capacità dei loro modelli di rispondere a temi sensibili come il suicidio e l'autolesionismo, riducendo la cosiddetta "sycophancy", ovvero la tendenza a compiacere l'utente anche quando questo rafforza pensieri dannosi. Anthropic afferma che i suoi modelli più recenti mostrano i livelli più bassi di compiacenza mai raggiunti, pur riconoscendo che il bilanciamento tra empatia e fermezza resta una sfida complessa.
Questi sforzi congiunti di OpenAI e Anthropic rappresentano un passo importante verso la creazione di un ambiente online più sicuro e protettivo per i giovani. Le aziende tecnologiche sono sempre più consapevoli della loro responsabilità nel tutelare i minori dai rischi dell'AI e si impegnano a sviluppare strumenti e politiche che promuovano un uso consapevole e responsabile della tecnologia. Il dibattito pubblico e politico sull'impatto dell'AI, soprattutto sulla salute mentale degli adolescenti, è in costante evoluzione, e iniziative come queste contribuiscono a plasmare un futuro digitale più sicuro e inclusivo per le nuove generazioni.

