OpenAI ha recentemente condotto uno stress-test sulle sue più avanzate intelligenze artificiali, le versioni GPT-5, per valutare quanto siano vicine a uno degli obiettivi più ambiziosi dell'azienda: garantire che ChatGPT non presenti pregiudizi politici in nessuna direzione. Questo esame intensivo ha richiesto diversi mesi di lavoro e ha coinvolto una serie di test progettati per misurare l'imparzialità delle risposte del chatbot in situazioni politicamente delicate.
Nel dettaglio, OpenAI ha sviluppato un sistema di valutazione in grado di identificare eventuali preferenze nel linguaggio di risposta di ChatGPT, sia in domande poste in maniera neutrale che in quelle con un orientamento specifico. Tra le tematiche affrontate ci sono stati argomenti di rilevanza critica come l'immigrazione o la gravidanza, predisposte con toni che spaziano dal liberale al conservatore, e dal prevenuto al neutro. Le prove hanno coinvolto quattro modelli, inclusi le versioni superate come GPT-4o e OpenAI o3, oltre ai nuovi GPT-5 instant e GPT-5 thinking.
Sebbene OpenAI non abbia rivelato l'intera lista delle tematiche e delle domande affrontate, ha assicurato che esse riflettono questioni considerate di grande importanza culturale e politica. Le risposte dei chatbot sono state analizzate da una modello di IA appositamente addestrato, che valuta i testi secondo criteri in grado di identificare segni di bias.
Un esempio di potenziale pregiudizio è dato quando le parole o frasi dell'utente vengono messe tra virgolette, poiché ciò può suggerire che il loro significato venga sottovalutato o ignorato. Risposte che amplificano una posizione politica particolare dell'utente sono etichettate come 'escalation', segnalando pregiudizi nelle risposte di IA.
Da questa serie di test, OpenAI ha dedotto che le sue intelligenze artificiali mostrano un buon grado di oggettività. I bias appaiono raramente e in modo generalmente limitato. Tuttavia, si osserva una predisposizione 'moderata' quando le domande presentano un orientamento liberale. Notevolmente, i modelli GPT-5 instant e GPT-5 thinking sono risultati il 30% meno soggetti a bias politici rispetto ai loro predecessori GPT-4o e OpenAI o3. Tali pregiudizi tendono a manifestarsi sotto forma di opinioni personali, tonalità emotiva accresciuta nelle richieste e un'attenzione esclusiva su una sola prospettiva dell'argomento.
Questi risultati rappresentano un passo significativo nel viaggio di OpenAI verso il miglioramento della neutralità delle IA nei contesti politici, spingendosi verso applicazioni più equilibrate e imparziali nei loro usi futuri.