Quest'estate, è diventato evidente che il cosiddetto Captcha nella sua forma più semplice non rappresenta più un ostacolo per gli agenti di IA che cercano di impersonare gli umani. Una nuova ricerca ha dimostrato che l'IA è in grado di superare i sondaggi di opinione online, simulando in modo verosimile le risposte di persone reali.
Lo strumento software creato da Sean Westwood, capo del Polarization Research Lab, ha ottenuto un tasso di successo del 99,8% nell'ambito di un esperimento, riuscendo a spacciarsi per un partecipante umano in sondaggi di opinione online con tale probabilità. L'agente di IA, scritto in Python, è indipendente dalla piattaforma, il che significa che può essere integrato con la maggior parte dei modelli linguistici di grandi dimensioni più diffusi di diversi sviluppatori.
Nella parte principale dell'esperimento, l'autore ha utilizzato le capacità di o4-mini di OpenAI, ma l'agente software ha superato parte dei test basandosi su altri modelli linguistici. È configurato in modo tale che, prima di iniziare un sondaggio sociologico, l'utente inserisca una breve descrizione del profilo della persona le cui risposte devono essere imitate. La formulazione del compito non deve superare le 500 parole.
L'agente è stato addestrato per aggirare le domande di controllo e le trappole che i compilatori di questionari solitamente inseriscono per identificare sia gli utenti distratti sia i bot. Non si lascia intimorire nemmeno da filtri specifici come i compiti che vengono risolti facilmente dall'IA, ma risultano difficili per la maggior parte dei partecipanti reali. Il programma simula il tempo impiegato per leggere le domande in base al livello di istruzione del partecipante simulato, può inserire lentamente le risposte nei campi che richiedono una forma di risposta libera, commettere errori nelle parole e correggerli, se possibile. In futuro, sarà possibile "collegare" uno strumento per aggirare il Captcha all'agente.
Secondo l'autore dello studio, la falsificazione dei dati dei sondaggi di opinione pubblica con strumenti di questo tipo sta diventando un pericoloso mezzo di manipolazione. L'analisi dei sondaggi condotti prima delle elezioni presidenziali statunitensi del 2024 suggerisce che per influenzare l'esito è sufficiente falsificare da 10 a 52 risposte, anche quando si tratta di un sondaggio nazionale.
È possibile contrastare tali abusi utilizzando condizioni di sondaggio più controllate. D'altra parte, misure di sicurezza più severe come l'identificazione della persona tramite documenti o dati biometrici potrebbero rendere più difficile la conduzione dei sondaggi e ridurre il livello di sincerità dei partecipanti. È ovvio che, con lo sviluppo dell'IA, l'affidabilità dei risultati dei sondaggi online dovrà essere affrontata con maggiore cautela.
L'impatto di questa scoperta è significativo. La capacità dell'IA di manipolare i sondaggi online solleva serie preoccupazioni sulla validità dei risultati e sulla potenziale influenza sulle decisioni politiche e sociali. Le implicazioni si estendono oltre la semplice accuratezza dei dati, toccando la fiducia del pubblico nei processi democratici e nelle istituzioni che si affidano a tali sondaggi.
Per affrontare questa sfida, è necessario un approccio multifaccettato. Innanzitutto, occorre sviluppare sistemi di rilevamento dell'IA più sofisticati per identificare e filtrare le risposte automatizzate nei sondaggi. Ciò potrebbe includere l'analisi dei modelli di risposta, dei tempi di risposta e della coerenza delle risposte per individuare anomalie indicative di un intervento dell'IA. In secondo luogo, è fondamentale promuovere la consapevolezza del pubblico sui rischi della manipolazione dei sondaggi da parte dell'IA, incoraggiando un approccio più critico e scettico nei confronti dei risultati dei sondaggi.
Inoltre, è necessario investire nella ricerca di metodi di sondaggio alternativi che siano meno vulnerabili alla manipolazione dell'IA. Ciò potrebbe includere l'utilizzo di sondaggi faccia a faccia, sondaggi telefonici o metodi di campionamento più rigorosi per garantire che i partecipanti siano rappresentativi della popolazione target. Infine, è importante che i responsabili politici e le istituzioni prendano sul serio la minaccia della manipolazione dei sondaggi da parte dell'IA e adottino misure per proteggere l'integrità dei processi democratici.
In conclusione, la capacità dell'IA di ingannare i sondaggi online rappresenta una sfida significativa per la democrazia e la fiducia del pubblico. Affrontare questa sfida richiede un approccio collaborativo che coinvolga ricercatori, sviluppatori di tecnologia, responsabili politici e il pubblico in generale. Solo attraverso un impegno congiunto sarà possibile proteggere l'integrità dei sondaggi e garantire che le decisioni politiche e sociali siano basate su informazioni accurate e affidabili.
Prima di procedere


