Il primo ministro britannico Keir Starmer ha espresso forte preoccupazione riguardo alla diffusione di deepfake a sfondo sessuale sulla piattaforma X, generati tramite il suo bot di intelligenza artificiale, Grok. Starmer ha dichiarato che la società sta prendendo misure per garantire la piena conformità con la legislazione britannica in materia. Questa presa di posizione è arrivata in seguito a una serie di critiche mosse dallo stesso premier e all'avvio di un'indagine da parte dell'Ufficio delle comunicazioni britannico (Ofcom).
In precedenza, Starmer aveva intimato a X di "prendere il controllo" del flusso di immagini generate dall'IA raffiguranti donne e bambini parzialmente vestiti, definendo tali contenuti "vergognosi" e "disgustosi". Aveva inoltre minacciato azioni severe contro la piattaforma. "È illegale. Non abbiamo intenzione di tollerarlo. Ho chiesto di valutare tutte le opzioni. È disgustoso. X deve darsi una regolata e rimuovere questo materiale. Prenderemo delle misure perché è semplicemente inaccettabile", aveva affermato.
Le immagini generate da Grok e ampiamente diffuse su X hanno suscitato una forte reazione negativa. Diverse donne, le cui immagini sono state manipolate digitalmente con questo strumento, hanno denunciato l'esperienza come "umiliante" e "disumanizzante". Il 12 gennaio, l'Ofcom ha avviato un'indagine ufficiale per accertare se i deepfake sessuali creati su X tramite il chatbot Grok AI violino le leggi del Regno Unito.
Un portavoce di X aveva precedentemente dichiarato che la piattaforma adotta misure contro i contenuti illegali, inclusi i materiali che contengono scene di abusi sessuali su minori, provvedendo alla loro rimozione, al blocco permanente degli account responsabili e collaborando con le autorità locali e le forze dell'ordine, ove necessario. Recentemente, Starmer ha informato la Camera dei Comuni di aver ricevuto assicurazioni riguardo alle misure intraprese da X per garantire il pieno rispetto della legislazione britannica. "Se così è, allora è positivo, ma non abbiamo intenzione di fare marcia indietro e devono agire. Adotteremo le misure necessarie. Rafforzeremo le leggi esistenti e prepareremo una legislazione, se necessario, per andare oltre, e l'Ofcom proseguirà con la sua indagine indipendente", ha concluso.
Questo episodio mette in luce le crescenti preoccupazioni legate all'utilizzo dell'intelligenza artificiale per la creazione e la diffusione di contenuti falsi e potenzialmente dannosi. La capacità di generare deepfake sempre più realistici solleva interrogativi etici e legali complessi, richiedendo un'azione congiunta da parte dei legislatori, delle piattaforme online e della società civile per contrastare questo fenomeno e proteggere i diritti e la dignità delle persone.
La vicenda sottolinea anche la necessità di una maggiore consapevolezza e di una migliore educazione sull'utilizzo dell'IA e sui rischi connessi alla diffusione di deepfake. È fondamentale che gli utenti siano in grado di riconoscere e segnalare contenuti falsi, e che le piattaforme online adottino misure efficaci per prevenirne la diffusione e per sanzionare i responsabili.
Inoltre, è importante che i legislatori definiscano un quadro normativo chiaro e aggiornato per affrontare le sfide poste dai deepfake, garantendo al contempo la libertà di espressione e l'innovazione tecnologica. La risposta del Regno Unito a questo caso potrebbe rappresentare un modello per altri paesi che si trovano ad affrontare simili problematiche.

