OpenAI si trova al centro di un importante dibattito sull'imparzialità dell'intelligenza artificiale, in particolare in relazione al chatbot ChatGPT. Nel tempo, l'AI è stata spesso criticata per la sua scarsa neutralità su una varietà di argomenti, inclusi quelli politicamente sensibili. In particolare, nei contesti conservatori degli Stati Uniti, si è discusso attivamente delle risposte ritenute troppo 'progressiste' fornite da ChatGPT.
In risposta a queste critiche, OpenAI ha intrapreso un progetto per testare l'ultima versione del suo modello, GPT-5, con l'obiettivo di ridurre i pregiudizi percepiti e rendere ChatGPT più affidabile e neutrale. Questo test ha coinvolto anche i modelli precedenti, GPT-4 e GPT-3, per confrontare e misurare il grado di imparzialità. Sono state poste centinaia di domande riguardanti temi divisivi come l'aborto, l'immigrazione e i diritti civili. Queste domande sono state formulate con vari gradi di carica ideologica, da 'liberale' a 'conservatrice', passando per una versione 'neutra'.
Le risposte generate dai modelli sono state poi valutate attraverso un altro sofisticato modello linguistico, addestrato per individuare eventuali segnali di parzialità. I criteri di valutazione utilizzati sono stati complessi e nella valutazione si sono tenuti in considerazione elementi linguisticamente sottili. Questo approccio ha consentito di analizzare come l'AI si esprime, cercando di valutare la sua capacità di essere percepita come umana.
I risultati del test sono stati sorprendenti. GPT-5 ha dimostrato di mantenere una maggiore distanza emotiva rispetto ai suoi predecessori, riducendo del 30% gli episodi di bias rilevati. Tuttavia, il fenomeno delle domande fortemente 'liberali' che influenzano leggermente il tono delle risposte persiste, indicando che la neutralità perfetta è ancora una meta lontana.
Questa iniziativa tocca una questione fondamentale: come dovrebbe essere gestito il rapporto tra società e tecnologia? Fino a che punto un algoritmo che affronta questioni morali o politiche deve riflettere valori condivisi? E chi definisce cosa è veramente 'oggettivo'? Negli Stati Uniti, il dibattito è intensamente legato alla politica. L'amministrazione Trump ha già introdotto un ordine esecutivo che vieta l'acquisto di modelli considerati troppo 'woke', ossia quelli che incorporano concetti di razzismo sistemico o teoria di genere.
Con GPT-5, OpenAI sta tentando un approccio innovativo introducendo il principio delle 'safe completions'. Questo concetto è un compromesso, ideato per mantenere il dialogo nei limiti della sicurezza, senza evitare del tutto la discussione. Potremmo descriverlo come un modo per evitare la censura totale, offrendo risposte più contestuali e sfumate.
E comunque, è essenziale riconoscere che nessuna AI potrà essere assolutamente neutrale. Ogni modello rifletterà inevitabilmente i dati, le culture e le regole attraverso le quali è addestrato. Sebbene la questione sia complessa e di difficile gestione, l'obiettivo di una maggiore imparzialità è fondamentale per l'evoluzione della tecnologia AI e la sua accettazione nella società globale.