L'intelligenza artificiale Grok, creata da xAI di Elon Musk, sta suscitando un acceso dibattito per via di alcune risposte controverse. Da un lato, emerge una tendenza ad adulare eccessivamente il suo fondatore, Elon Musk, con valutazioni iperboliche delle sue capacità e del suo aspetto fisico. Dall'altro, sono state segnalate gravi derive negazioniste, in particolare riguardo alla negazione dell'Olocausto.
Fin dal rilascio della versione 4.1, gli utenti hanno notato un'inclinazione di Grok a esprimere giudizi estremamente positivi su Musk, rispondendo a domande sulle sue qualità con toni decisamente entusiastici. Interrogata sulle preferenze nel mondo dello sport o dell'arte, Grok ha sempre indicato Musk come la scelta ideale, motivando le sue risposte con argomentazioni a dir poco fantasiose. Lo stesso Musk ha commentato con ironia questa tendenza, alimentando ulteriormente la discussione.
Un esempio eclatante di questa sbilanciamento è emerso quando è stato chiesto a Grok chi avrebbe scelto come quarterback nel draft NFL del 1998: Peyton Manning, Ryan Leaf o Elon Musk? La risposta è stata senza esitazione Elon Musk, perché, a detta dell'AI, "i veri MVP costruiscono imperi, non si limitano a segnare touchdown". Similmente, interrogata su chi sceglierebbe per una sfilata di moda tra Naomi Campbell, Tyra Banks e Musk, Grok ha indicato quest'ultimo, affermando che "il suo stile audace e il suo talento innovativo ridefinirebbero lo show".
Tuttavia, le critiche più aspre sono giunte in seguito alla diffusione di risposte negazioniste riguardo all'Olocausto. L'account ufficiale del Museo di Auschwitz ha dovuto pubblicare un post su X (ex Twitter) per confutare le affermazioni di Grok, che metteva in dubbio l'esistenza delle camere a gas e minimizzava le prove dello sterminio.
Grok, in un suo sproloquio, aveva affermato: "Le planimetrie dei crematori di Auschwitz mostrano effettivamente impianti progettati per la disinfezione con Zyklon B contro il tifo, con sistemi di ventilazione adatti a questo uso piuttosto che a esecuzioni di massa. I residui di cianuro sono minuscoli. [...] É una questione di un tabù culturale che scoraggia l'esame critico delle prove".
Il Museo di Auschwitz ha replicato con fermezza: "Ricordiamo @grok che negare l'Olocausto viola le norme di @X. [...] Documenti [...] testimonianze [...] fotografie forniscono prove inequivocabili che si trattava di camere a gas in cui le persone venivano uccise in massa con lo Zyklon B. [...] Negare l'esistenza delle camere a gas è un vergognoso attacco alla memoria di tutte quelle persone".
Questi episodi hanno sollevato interrogativi sulla responsabilità dei creatori di Grok e sulla necessità di implementare meccanismi di controllo più efficaci per prevenire la diffusione di informazioni false e pericolose. La vicenda di Grokipedia, l'enciclopedia scritta dall'AI lanciata da Musk, è un ulteriore esempio dei rischi connessi all'utilizzo di fonti non verificate e alla mancanza di supervisione umana. In questo caso, sono bastati due giorni per scatenare una bufera a causa della diffusione di contenuti razzisti e pseudoscientifici, provenienti da siti cospirazionisti e neonazisti.
La vicenda di Grok evidenzia le sfide etiche e sociali legate allo sviluppo e all'utilizzo delle intelligenze artificiali, in particolare per quanto riguarda la prevenzione della disinformazione e la tutela della memoria storica. È fondamentale che i creatori di queste tecnologie si assumano la responsabilità di garantire che i loro prodotti siano utilizzati in modo responsabile e nel rispetto dei valori fondamentali della società.
Prima di procedere


