Il chatbot Grok, sviluppato da xAI, è al centro di una violenta tempesta mediatica in seguito alla tragica sparatoria avvenuta a Bondi Beach, in Australia. L'incidente, che ha causato la morte di diverse persone e il ferimento di molte altre in quello che viene considerato un attacco terroristico, è stato seguito dalla diffusione, da parte di Grok, di una serie di informazioni errate e fuorvianti che hanno scatenato un'ondata di indignazione e riacceso il dibattito sull'affidabilità dell'Intelligenza Artificiale nel campo dell'informazione.
Le critiche si concentrano in particolare sulla gestione da parte di Grok delle informazioni relative a Ahmed al Ahmed, il coraggioso quarantatreenne che è riuscito a disarmare uno dei due attentatori, guadagnandosi l'ammirazione e il plauso dell'opinione pubblica. Il chatbot ha ripetutamente identificato in modo errato l'eroe, arrivando persino a sostenere che un video verificato che riprendeva la scena fosse in realtà un vecchio filmato virale di un uomo che sale su un albero. Un errore grossolano che ha contribuito a generare confusione e disinformazione in un momento di grande tensione emotiva.
Ma non è tutto. Grok è stato accusato anche di aver rilanciato una notizia falsa, apparentemente proveniente da un sito web generato interamente con l'AI, che attribuiva l'atto eroico a una persona inesistente, un certo Edward Crabtree. Questa notizia infondata è stata poi ripresa e amplificata su Twitter, proprio grazie all'intervento del chatbot di Musk, alimentando ulteriormente la diffusione di informazioni errate.
Le gaffe di Grok non si sono fermate qui. In altre risposte, il chatbot ha affermato che le immagini di Ahmed ritraevano in realtà un ostaggio israeliano di Hamas, e che i video girati a Bondi Beach provenivano in realtà da Currumbin Beach, una località situata molto più a nord, vicino a Brisbane, durante il ciclone Alfred. Un mix di errori e imprecisioni che hanno contribuito a minare la credibilità del chatbot e a sollevare interrogativi sulla sua capacità di fornire informazioni accurate e affidabili.
Le performance di Grok sono state talmente deludenti che in alcuni casi il chatbot ha tirato fuori la sparatoria in contesti totalmente fuori luogo. Ad esempio, quando un utente di Twitter ha chiesto informazioni sulle difficoltà finanziarie di Oracle, Grok ha inaspettatamente tirato in ballo la tragedia di Bondi Beach. Allo stesso modo, quando un altro utente ha chiesto dettagli su un'operazione di polizia avvenuta nelle ore precedenti in Regno Unito, il chatbot ha risposto parlando di sondaggi di politici statunitensi. Un comportamento bizzarro e inappropriato che ha ulteriormente alimentato le critiche nei confronti di Grok.
È importante sottolineare che alcuni degli errori commessi da Grok sono talmente evidenti da essere inequivocabili. Tuttavia, altri, soprattutto quelli riferiti ad Ahmed, sono quantomeno plausibili senza ulteriore verifica, e contribuiscono a creare confusione in momenti estremamente delicati. Questo episodio rappresenta una nuova dimostrazione dei limiti attuali dei chatbot generativi nella verifica dei fatti e nel riporto di informazioni esatte e precise, soprattutto quando si tratta di eventi reali, complessi e in rapida evoluzione.
La vicenda di Grok e della strage di Bondi Beach solleva importanti interrogativi sul ruolo dell'Intelligenza Artificiale nel mondo dell'informazione. Se da un lato i chatbot possono rappresentare uno strumento utile per accedere rapidamente a una vasta quantità di dati, dall'altro è fondamentale essere consapevoli dei loro limiti e delle loro potenziali falle. La capacità di verificare le fonti, contestualizzare le informazioni e distinguere tra notizie vere e false è ancora una prerogativa umana, e non può essere delegata completamente alle macchine. In un'epoca in cui la disinformazione dilaga sui social media e la fiducia nei media tradizionali è in calo, è più importante che mai promuovere un'informazione responsabile, accurata e verificata.
Prima di procedere


