X (Twitter) limita la creazione di deepfake espliciti con Grok AI dopo le polemiche

La piattaforma interviene per arginare la generazione non consensuale di immagini intime, introducendo restrizioni e misure di sicurezza

X (Twitter) limita la creazione di deepfake espliciti con Grok AI dopo le polemiche

A seguito di un'ondata di critiche per la creazione, tramite il chatbot Grok AI, di deepfake sessuali non consensuali su X (precedentemente noto come Twitter), la piattaforma ha annunciato modifiche alle capacità dell'account Grok AI di modificare immagini di persone reali. Tuttavia, come riporta The Verge, è ancora possibile creare immagini esplicite di persone in bikini utilizzando un account gratuito.

"Abbiamo implementato misure tecnologiche per impedire la modifica di immagini di persone reali in abiti succinti, come bikini, tramite l'account Grok. Questa restrizione si applica a tutti gli utenti, compresi gli abbonati a pagamento", si legge in un aggiornamento dell'account X. L'aggiornamento precisa inoltre che la creazione e la modifica di immagini tramite l'account Grok sulla piattaforma X sono ora disponibili solo per gli abbonati a pagamento. "Ciò aggiunge un ulteriore livello di protezione, contribuendo a garantire che chiunque tenti di abusare dell'account Grok per violare la legge o le nostre politiche possa essere ritenuto responsabile", ha dichiarato l'amministrazione del social network.

Inoltre, è stato annunciato che la piattaforma sta bloccando la possibilità per tutti gli utenti di creare immagini di persone reali in bikini, biancheria intima e abbigliamento simile tramite l'account Grok e in Grok in X nelle giurisdizioni in cui ciò è illegale. Questa decisione arriva in un momento di crescente preoccupazione per l'uso improprio dell'intelligenza artificiale nella creazione di contenuti potenzialmente dannosi e non consensuali.

La diffusione di deepfake, ovvero immagini o video falsificati in modo realistico tramite l'intelligenza artificiale, solleva serie questioni etiche e legali. In particolare, la creazione di deepfake a sfondo sessuale senza il consenso delle persone coinvolte rappresenta una grave violazione della privacy e può causare danni psicologici significativi alle vittime. La capacità di generare tali contenuti in modo rapido e accessibile tramite piattaforme come X amplifica ulteriormente il rischio e richiede un'azione immediata per contrastarne la diffusione.

Le misure adottate da X rappresentano un primo passo importante nella direzione giusta, ma è fondamentale che la piattaforma continui a monitorare attentamente l'utilizzo di Grok AI e ad affinare i propri sistemi di sicurezza per prevenire abusi futuri. Inoltre, è necessario un impegno congiunto da parte delle aziende tecnologiche, dei legislatori e della società civile per sviluppare standard etici e legali chiari sull'utilizzo dell'intelligenza artificiale nella creazione di contenuti digitali.

La regolamentazione dei deepfake è un tema complesso che richiede un approccio equilibrato, in grado di proteggere la libertà di espressione senza compromettere la sicurezza e la dignità delle persone. In Europa, il Digital Services Act (DSA) rappresenta un importante strumento per affrontare le sfide poste dai contenuti illegali online, inclusi i deepfake non consensuali. Il DSA impone alle piattaforme online obblighi di trasparenza e responsabilità, e prevede sanzioni significative per le violazioni.

Parallelamente, diversi paesi stanno adottando leggi specifiche per criminalizzare la creazione e la diffusione di deepfake dannosi. Ad esempio, nel Regno Unito è entrata in vigore una legge che considera reato penale la creazione di immagini intime deepfake senza il consenso degli interessati. Queste iniziative legislative sono fondamentali per fornire alle vittime di deepfake un quadro giuridico chiaro e strumenti efficaci per ottenere giustizia.

In conclusione, la vicenda dei deepfake generati da Grok AI su X evidenzia la necessità di un approccio proattivo e multidimensionale per affrontare le sfide etiche e legali poste dall'intelligenza artificiale. Le aziende tecnologiche devono assumersi la responsabilità di prevenire l'uso improprio dei propri strumenti, i legislatori devono definire regole chiare e aggiornate, e la società civile deve promuovere una cultura digitale consapevole e rispettosa della dignità umana. Solo attraverso un impegno congiunto sarà possibile sfruttare appieno il potenziale dell'intelligenza artificiale, mitigando al contempo i rischi e proteggendo i diritti fondamentali di tutti.

Pubblicato Giovedì, 15 Gennaio 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Giovedì, 15 Gennaio 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
WorldMatch - Gambling software solutions
Infogioco.it - Sconti