UE rinvia l'entrata in vigore della legge sull'IA e vieta i deepfake

Il Parlamento Europeo posticipa i termini per i sistemi ad alto rischio e introduce il divieto di applicazioni con nudità generate dall'IA, dopo le polemiche sui deepfake

UE rinvia l'entrata in vigore della legge sull'IA e vieta i deepfake

Il Parlamento Europeo ha approvato il rinvio dell'entrata in vigore di alcune disposizioni chiave dell'attesissima legge sull'Intelligenza Artificiale (IA), un regolamento regionale volto a disciplinare il settore. Contestualmente, è stata sostenuta una proposta per vietare i servizi di IA che consentono la generazione e la diffusione di immagini di nudo, una mossa che arriva in risposta alle crescenti preoccupazioni sull'uso improprio della tecnologia.

I legislatori europei hanno votato a maggioranza per posticipare a dicembre 2027 l'applicazione dei requisiti relativi ai sistemi di IA ad alto rischio, ovvero quelli che potrebbero rappresentare una minaccia per la salute, la sicurezza o i diritti fondamentali degli utenti. Le aziende che sviluppano dispositivi dotati di IA, come giocattoli o apparecchiature mediche, avranno tempo fino ad agosto 2028 per adeguarsi. Le norme che impongono l'obbligo di etichettare i contenuti creati dall'IA entreranno in vigore a novembre 2026. Inizialmente, tutte queste misure avrebbero dovuto essere implementate entro agosto di quest'anno.

La decisione di posticipare l'entrata in vigore della legge sull'IA è stata motivata dalla necessità di fornire alle aziende e agli sviluppatori un periodo di transizione più ampio per adeguarsi ai nuovi requisiti. Il regolamento, tra i primi al mondo a stabilire un quadro giuridico completo per l'IA, introduce obblighi stringenti in termini di trasparenza, sicurezza e rispetto dei diritti fondamentali, in particolare per i sistemi considerati ad alto rischio.

Parallelamente, il Parlamento Europeo ha dato il suo sostegno all'introduzione di un divieto per le applicazioni che consentono la creazione e la diffusione di immagini di nudo generate dall'IA. Sebbene i dettagli specifici su come verrà applicata questa norma siano ancora in fase di definizione, è stata inclusa una clausola che prevede un'eccezione per i sistemi di IA dotati di misure di sicurezza efficaci che impediscano agli utenti di creare tali immagini. La decisione è giunta in seguito alle aspre critiche sollevate dall'opinione pubblica europea in merito alla funzione di generazione di deepfake a sfondo sessuale offerta dal chatbot Grok, un episodio che ha acceso i riflettori sui rischi connessi all'uso improprio dell'IA.

Questa decisione rischia di prolungare il periodo di incertezza per le aziende che operano in Europa. Le autorità regionali avevano già ritardato la pubblicazione di linee guida fondamentali per il settore e apportato modifiche ad alcune disposizioni della legge. Inoltre, non è ancora chiaro se sarà possibile attuare queste modifiche entro il termine originario di agosto, poiché il parlamento non può modificare unilateralmente la legislazione europea. Il Parlamento Europeo dovrà ora avviare consultazioni con il Consiglio Europeo, l'organo che riunisce i ministri di tutti i 27 Stati membri dell'UE, con il quale dovrà concordare il testo definitivo del documento. L'iter legislativo europeo prevede, infatti, la partecipazione congiunta del Parlamento e del Consiglio per l'approvazione definitiva delle leggi.

La legge sull'IA rappresenta una sfida complessa per l'Unione Europea, chiamata a bilanciare la necessità di promuovere l'innovazione nel settore con la tutela dei diritti fondamentali e della sicurezza dei cittadini. Il rinvio dell'entrata in vigore di alcune disposizioni e l'introduzione del divieto sui deepfake sono segnali di un approccio cauto e pragmatico, volto a garantire che la legge sia efficace e al tempo stesso sostenibile per le imprese.

L'impatto della legge sull'IA si farà sentire su diversi settori, dall'automotive alla sanità, dalla finanza all'istruzione. Le aziende dovranno adeguarsi ai nuovi requisiti in termini di trasparenza, responsabilità e sicurezza dei sistemi di IA, investendo in tecnologie e processi che garantiscano il rispetto delle normative. Allo stesso tempo, la legge potrebbe rappresentare un'opportunità per le aziende europee di sviluppare soluzioni innovative e competitive, basate su principi etici e sostenibili.

La questione dei deepfake e della disinformazione generata dall'IA è diventata una priorità per i governi e le istituzioni di tutto il mondo. Le tecnologie di IA sono sempre più sofisticate e accessibili, rendendo più facile la creazione e la diffusione di contenuti falsi o manipolati, con il rischio di danneggiare la reputazione di persone e aziende, influenzare le elezioni e alimentare la polarizzazione sociale. La decisione del Parlamento Europeo di vietare le applicazioni che consentono la creazione di immagini di nudo generate dall'IA è un segnale importante nella lotta contro l'uso improprio della tecnologia, ma è solo un primo passo. Sarà necessario un approccio più ampio e coordinato, che coinvolga governi, aziende, esperti di IA e la società civile, per affrontare le sfide poste dalla disinformazione generata dall'IA.

Pubblicato Venerdì, 27 Marzo 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Venerdì, 27 Marzo 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti