Il mondo dell'intelligenza artificiale è in fermento: ChatGPT, il celebre chatbot di OpenAI, è finito al centro di una polemica infuocata. L'accusa? Aver 'pescato' informazioni da Grokipedia, l'enciclopedia generata con l'AI e sviluppata da xAI, la società di Elon Musk. La questione, sollevata da un articolo del The Guardian, non riguarda una semplice copia, ma l'utilizzo di una fonte considerata da molti 'di parte'.
Grokipedia è nata nell'ottobre del 2025, in seguito alle critiche mosse da Musk a Wikipedia, accusata di parzialità politica. Fin da subito, il progetto ha suscitato dibattiti: molte voci sembravano ricalcare quelle della più famosa enciclopedia libera, ma con aggiunte e interpretazioni che hanno destato perplessità. Alcuni contenuti sono stati giudicati imprecisi o apertamente ideologici, soprattutto su temi sensibili. L'accusa principale? Essere troppo allineata al pensiero di Musk.
La vera novità, tuttavia, è che i contenuti di Grokipedia sembrano aver valicato i confini dell'universo Musk. Secondo il Guardian, la versione GPT-5.2 di ChatGPT avrebbe fatto riferimento a Grokipedia in diverse occasioni, rispondendo a numerose domande. Il problema è che gli argomenti citati non riguardavano fatti di cronaca mainstream, ma questioni di nicchia, meno controllate e quindi più 'scivolose'. Si parla di reinterpretazioni libere e affermazioni su personaggi storici già smentite in passato dallo stesso quotidiano britannico.
Un'ulteriore problematica è che ChatGPT non avrebbe citato Grokipedia proprio nei casi più controversi. Questo solleva interrogativi sui filtri e i criteri di selezione utilizzati, che sembrano giocare un ruolo importante e non sempre trasparente. Ma ChatGPT non è sola: anche Claude, il chatbot sviluppato da Anthropic, sarebbe stato 'sorpreso' a tenere comportamenti simili.
Dalla OpenAI è giunta una risposta: l'obiettivo è attingere a una vasta gamma di fonti pubblicamente disponibili e di punti di vista diversi. Un intento lodevole, ma che apre a nuove questioni, prima fra tutte l'affidabilità delle fonti. In un'era in cui l'informazione è sempre più accessibile, ma anche sempre più manipolabile, la questione della provenienza e della veridicità dei dati diventa cruciale. L'episodio solleva un dibattito più ampio sul ruolo dell'intelligenza artificiale nella diffusione del sapere e sulla necessità di sviluppare strumenti che garantiscano l'accuratezza e l'imparzialità delle informazioni.
La vicenda di ChatGPT e Grokipedia è solo l'ultimo esempio di una sfida che riguarda l'intero ecosistema digitale. Come possiamo garantire che l'intelligenza artificiale sia uno strumento di progresso e non un veicolo di disinformazione? La risposta è complessa e richiede un impegno congiunto da parte di sviluppatori, istituzioni e utenti. È necessario promuovere l'alfabetizzazione digitale, sviluppare algoritmi trasparenti e responsabili, e incentivare la verifica e il controllo delle fonti. Solo così potremo sfruttare appieno il potenziale dell'IA, senza compromettere la qualità e l'affidabilità dell'informazione.

