L'IA influenza l'opinione pubblica: studio USA rivela l'indifferenza verso l'autore

Un recente studio dimostra che gli argomenti generati dall'IA possono cambiare le opinioni politiche tanto quanto quelli umani, sollevando preoccupazioni sulla disinformazione

L'IA influenza l'opinione pubblica: studio USA rivela l'indifferenza verso l'autore

Un nuovo studio condotto negli Stati Uniti ha rivelato un dato sorprendente: la maggior parte dei cittadini americani sembra indifferente all'origine degli argomenti presentati su diverse questioni di politica pubblica. In particolare, i risultati indicano che le persone tendono a credere e a farsi influenzare allo stesso modo sia da argomentazioni presentate come provenienti da esperti umani, sia da quelle generate dall'intelligenza artificiale (IA). Questo significa che un'IA è altrettanto capace di persuadere i cittadini a modificare le proprie opinioni su temi importanti quanto un essere umano. Tuttavia, ciò solleva anche nuove preoccupazioni, poiché un essere umano non può competere con una "fabbrica di troll" basata sull'IA. Sembra che, almeno in ambito politico, la partita sia persa.

La ricerca, pubblicata sulla rivista PNAS Nexus, esplora l'atteggiamento delle persone nei confronti delle fonti di argomentazioni su vari temi di politica pubblica. I ricercatori hanno dimostrato che l'etichettatura dei testi come creati dall'IA non ne ha ridotto la capacità di persuasione rispetto a testi presumibilmente scritti da un essere umano o presentati senza indicazione di autore. È importante notare che, ai fini dell'esperimento, tutti i testi sono stati generati dall'IA; l'obiettivo era valutare la reazione delle persone alla dichiarata paternità degli argomenti.

Il sondaggio è stato condotto su un campione di 1601 americani. Ai partecipanti sono stati presentati messaggi generati dall'IA su temi politici di attualità, tra cui la geoingegneria, l'importazione di farmaci, gli stipendi degli atleti universitari e la responsabilità delle piattaforme di social media. I testi sono stati etichettati in modo casuale con una delle tre seguenti diciture: "creato dall'IA", "scritto da un esperto umano" o senza alcuna etichetta. I risultati hanno mostrato che, in media, i messaggi sono stati in grado di modificare l'atteggiamento degli intervistati nei confronti del problema del 9,74% su una scala di 100 punti.

La maggior parte dei partecipanti (92%) ha creduto all'indicazione di paternità fornita, ma l'etichettatura ha avuto un impatto trascurabile su indicatori chiave come il cambiamento di atteggiamento nei confronti delle questioni discusse, la valutazione dell'accuratezza degli argomenti e la volontà di condividere il messaggio. Questi risultati si sono dimostrati coerenti indipendentemente dall'orientamento politico, dal livello di familiarità con l'IA e dal livello di istruzione dei partecipanti. Solo tra le persone più anziane si è osservata una reazione leggermente più negativa ai testi etichettati come provenienti dall'IA rispetto a quelli "umani", ma l'effetto è stato minimo.

Questi dati suggeriscono che la semplice indicazione dell'utilizzo dell'intelligenza artificiale potrebbe non essere una barriera efficace contro l'influenza di tali messaggi sull'opinione pubblica. Gli autori dello studio sottolineano che, sebbene l'etichettatura garantisca trasparenza e possa essere utile da un punto di vista etico, da sola non risolve il problema dell'imposizione di convinzioni da parte dell'IA. Questo crea nuove sfide per i governi, i proprietari di social network e la società nel contesto del rapido sviluppo delle tecnologie generative. Per esempio, l'Unione Europea sta lavorando all'AI Act, una legge pionieristica volta a regolamentare l'uso dell'IA, classificando i sistemi di IA in base al rischio e vietando le applicazioni più pericolose.

Lo studio evidenzia che gli argomenti generati dai moderni modelli di IA hanno già raggiunto un elevato livello di persuasività, in grado di competere con i testi umani anche quando la fonte è dichiarata apertamente. I risultati ottenuti riaprono il dibattito sulla disinformazione, sulla formazione dell'opinione pubblica e sulla necessità di sviluppare approcci più completi alla regolamentazione dei contenuti creati dall'intelligenza artificiale, poiché la sola etichetta di paternità dell'IA si dimostra insufficiente. È necessario un approccio multifacetico che includa l'educazione del pubblico, lo sviluppo di strumenti di verifica dei fatti più sofisticati e la collaborazione tra governi, aziende tecnologiche e società civile per affrontare le sfide poste dall'IA nel plasmare l'opinione pubblica.

Pubblicato Mercoledì, 11 Febbraio 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Mercoledì, 11 Febbraio 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti