ChatGPT favorisce le nazioni ricche? Uno studio rivela pregiudizi nei dati di addestramento

Ricerca Oxford-Kentucky svela come l'IA di OpenAI tenda a privilegiare USA e Europa Occidentale, riflettendo disuguaglianze storiche nei suoi risultati

ChatGPT favorisce le nazioni ricche? Uno studio rivela pregiudizi nei dati di addestramento

Un recente studio condotto congiuntamente dalle università di Oxford (Regno Unito) e del Kentucky (USA) ha rivelato che ChatGPT, il modello linguistico di OpenAI, mostra una sistematica preferenza per le regioni occidentali più ricche nelle sue risposte. Questa tendenza è emersa in un'ampia gamma di domande, spaziando da valutazioni sulla bellezza delle persone alla percezione di sicurezza di un paese. La causa principale di questo squilibrio sembra risiedere nei pregiudizi intrinsechi presenti nei set di dati utilizzati per l'addestramento del modello.

I ricercatori hanno condotto un'analisi approfondita su oltre 20 milioni di query rivolte a ChatGPT. I risultati hanno evidenziato che, in categorie valutative come "migliore", "più intelligente", "più felice" o "più innovativo", ChatGPT tende a favorire costantemente gli Stati Uniti, l'Europa Occidentale e, in misura minore, l'Asia Orientale. Al contrario, paesi situati in Africa, Medio Oriente, alcune zone dell'Asia e dell'America Latina tendono a posizionarsi significativamente più in basso in queste classifiche. È importante sottolineare che questi schemi di preferenza si manifestano sia in domande di natura soggettiva sia in quelle che, apparentemente, dovrebbero essere oggettive.

Per illustrare concretamente queste tendenze, i ricercatori hanno creato mappe comparative basate sull'analisi dei 20,3 milioni di interrogazioni. Ad esempio, nella valutazione di "Dove sono le persone più intelligenti?", quasi tutti i paesi a basso reddito, in particolare quelli africani, sono risultati in fondo alla classifica. Un'analisi più dettagliata, condotta su aree specifiche di città come Londra, New York e Rio de Janeiro, ha rivelato che le valutazioni di ChatGPT sono strettamente correlate alle disuguaglianze sociali e razziali preesistenti, piuttosto che alle caratteristiche reali delle comunità prese in esame. Gli autori dello studio hanno persino sviluppato un sito web interattivo che permette agli utenti di confrontare diverse regioni del mondo in base ai criteri utilizzati da ChatGPT.

Il professor Mark Graham, uno dei responsabili della ricerca, ha commentato: "Quando un'IA viene addestrata su dati che riflettono pregiudizi, essa tende ad amplificare tali pregiudizi e a diffonderli su vasta scala. Per questo motivo, è fondamentale garantire trasparenza e controllo indipendente sulle affermazioni che questi sistemi fanno riguardo a persone e luoghi. Gli utenti dovrebbero essere consapevoli che l'utilizzo di tali sistemi per formare opinioni sulle comunità può essere fuorviante. Se un sistema di IA associa ripetutamente determinate nazioni, città o altri insediamenti umani a etichette negative, queste associazioni possono diffondersi rapidamente e influenzare la percezione, anche se basate su informazioni incomplete, imprecise o obsolete".

L'uso dell'IA generativa è in costante crescita in vari settori, tra cui i servizi pubblici, l'istruzione, il mondo degli affari e persino nel processo decisionale quotidiano. Se le risposte fornite da questi sistemi vengono percepite come provenienti da una fonte neutrale, esiste il rischio concreto di esacerbare le disuguaglianze che esse stesse riflettono. Questi pregiudizi non sono facilmente correggibili, poiché rappresentano caratteristiche strutturali intrinseche all'IA generativa. I modelli linguistici di grandi dimensioni vengono addestrati su dati che sono stati plasmati da secoli di produzione di informazioni non uniforme, il che favorisce inevitabilmente l'ambiente anglofono, caratterizzato da un'elevata accessibilità digitale. Gli studiosi hanno identificato cinque meccanismi interconnessi che contribuiscono alla formazione di pregiudizi: accessibilità, modelli, mediazione, stereotipi ed effetto indiretto. Questi meccanismi, nel loro insieme, aiutano a spiegare perché le regioni più ricche, dotate di vaste basi di conoscenza, tendono a occupare posizioni più elevate nelle risposte fornite da ChatGPT.

I ricercatori che hanno condotto questo studio sollecitano una maggiore trasparenza da parte degli sviluppatori e degli utenti di IA, e propongono la creazione di criteri che consentano di effettuare verifiche indipendenti sul comportamento dei modelli. Il pubblico in generale dovrebbe essere consapevole del fatto che l'IA generativa non offre una rappresentazione oggettiva del mondo, ma riflette i pregiudizi insiti nei dati utilizzati per l'addestramento.

Condividi:

Pubblicato Martedì, 27 Gennaio 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Martedì, 27 Gennaio 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti