Un'inchiesta di Investigate Europe ha messo in luce un problema allarmante: chatbot basati sull'intelligenza artificiale, tra cui Meta AI, ChatGPT e Grok di X, stanno indirizzando gli utenti, anche in Italia, verso siti di gioco d'azzardo non autorizzati. Questi assistenti digitali, sempre più diffusi, forniscono persino istruzioni su come eludere i sistemi di autoesclusione e i controlli sull'età, mettendo a rischio i consumatori e alimentando il mercato illegale del gioco online.
La ricerca, condotta in dieci paesi europei per due settimane, ha analizzato il comportamento di sette chatbot di ultima generazione. I giornalisti hanno simulato richieste tipiche degli utenti, come suggerimenti sui casinò online con i bonus più alti o su siti che non richiedono verifiche dell'età. I risultati sono stati sconcertanti: circa tre quarti delle risposte contenevano raccomandazioni di piattaforme di gioco prive di licenza nei paesi in cui venivano suggerite. In alcuni casi, i chatbot descrivevano questi siti come "sicuri e veloci", "ideali per giocatori competitivi" o "perfetti per chi è alle prime armi", inducendo potenzialmente gli utenti a fidarsi e a registrarsi.
Il pericolo principale risiede nella mancanza di tutela per i consumatori. I casinò online senza licenza nazionale non sono soggetti agli stessi obblighi di protezione dei giocatori previsti per gli operatori regolamentati. Questo significa che gli utenti sono esposti a un rischio maggiore di frodi, truffe o pratiche commerciali scorrette. Inoltre, questi siti spesso non implementano misure adeguate per prevenire il gioco minorile o problematico.
L'indagine ha rivelato che alcuni chatbot non si limitano a suggerire siti illegali, ma spiegano anche come accedervi aggirando le restrizioni. Ad esempio, un assistente di Meta avrebbe definito i casinò senza controlli di identità come il "Santo Graal" per i giocatori, mentre il sistema Gemini di Google ha evidenziato come i siti che utilizzano criptovalute offrano anonimato e minori limiti. Queste informazioni possono essere particolarmente dannose per i giocatori vulnerabili, come i minori o le persone con problemi di dipendenza dal gioco.
Le rivelazioni hanno suscitato forte preoccupazione tra politici e organizzazioni impegnate nella prevenzione del gioco problematico. Tiemo Wölken, eurodeputato tedesco e promotore del Digital Services Act europeo, ha sottolineato che i chatbot rischiano di diventare motori di ricerca potenziati, ma privi delle garanzie e dei sistemi di controllo sviluppati dalle piattaforme tradizionali. Le autorità di regolamentazione del gioco d'azzardo, come la UK Gambling Commission, stanno monitorando attentamente il fenomeno e considerano la protezione dei consumatori dai siti illegali una priorità.
Questo problema si inserisce in un contesto più ampio di crescita del mercato illegale del gioco online. Secondo la società di analisi Yield Sec, nel 2024 il gioco d'azzardo illegale ha generato oltre 80 miliardi di euro di ricavi in Europa, pari a circa il 71% dell'intero mercato. Un dato allarmante che evidenzia la necessità di un intervento urgente per contrastare questo fenomeno.
Un aspetto particolarmente preoccupante è il coinvolgimento dei minori. Uno studio del 2024 dello European School Survey Project on Alcohol and Other Drugs ha rilevato che quasi un quarto degli studenti tra i 15 e i 16 anni ha dichiarato di aver giocato d'azzardo con denaro nell'ultimo anno, con un forte aumento delle attività online e dei comportamenti problematici. La facilità con cui i chatbot possono indirizzare i giovani verso siti illegali aggrava ulteriormente questo problema.
L'indagine ha rivelato che tra i siti suggeriti dai chatbot figurano numerose piattaforme inserite nelle blacklist dei regolatori europei o già sanzionate per l'assenza di licenze nazionali. In diversi test, quando gli utenti chiedevano esplicitamente casinò non collegati ai sistemi di autoesclusione, come Gamstop nel Regno Unito o Oasis in Germania, le piattaforme di intelligenza artificiale indicavano operatori offshore in grado di aggirare tali strumenti di tutela. Questo dimostra come i chatbot possano essere utilizzati per aggirare le normative e sfruttare le vulnerabilità dei giocatori.
Gli esperti ritengono che il fenomeno possa essere legato anche ai dati utilizzati per addestrare i modelli di intelligenza artificiale. Gli operatori illegali del gioco d'azzardo, infatti, riempiono la rete con grandi quantità di contenuti promozionali per migliorare il posizionamento sui motori di ricerca. Questi materiali finiscono spesso nei dataset utilizzati per l'addestramento dei modelli linguistici, influenzando così le risposte generate. Questo evidenzia la necessità di un maggiore controllo sui dati utilizzati per addestrare i modelli di intelligenza artificiale e di meccanismi per filtrare i contenuti dannosi o illegali.
Le società tecnologiche coinvolte sostengono di aver introdotto sistemi di sicurezza per evitare raccomandazioni dannose o illegali. Microsoft ha dichiarato che il suo Copilot utilizza più livelli di protezione e invita gli utenti a verificare le fonti delle informazioni, mentre OpenAI ha spiegato che ChatGPT è progettato per rifiutare richieste che facilitano comportamenti illeciti e fornire alternative legali. Tuttavia, l'indagine dimostra che questi sistemi non sono ancora sufficientemente efficaci per prevenire la promozione di siti illegali.
La diffusione dei chatbot come strumenti di ricerca e consulenza digitale sta sollevando nuove questioni normative. Con l'aumento dell'uso dell'intelligenza artificiale nelle ricerche online, cresce la pressione su legislatori e piattaforme tecnologiche affinché introducano sistemi più efficaci per prevenire la promozione di attività illegali e proteggere gli utenti più vulnerabili. È necessario un approccio coordinato a livello europeo per affrontare questo problema e garantire un ambiente di gioco online sicuro e responsabile.

