La privacy dei dati è messa seriamente in discussione dopo l'ultima scoperta fatta da un'inchiesta condotta da Forbes su Grok, l'assistente virtuale sviluppato da xAI, l'azienda guidata da Elon Musk. In un clima già teso riguardo alla sicurezza dei dati online, emergono dettagli preoccupanti che possono scuotere la fiducia degli utenti.
Più di 370.000 conversazioni gestite dal chatbot sono apparse inaspettatamente sul sito ufficiale, per poi essere indicizzate e facilmente reperibili tramite motori di ricerca. Queste interazioni, tutt'altro che banali, comprendevano anche file personali come documenti, foto e fogli di calcolo, esponendo informazioni private al pubblico dominio.
Il problema sembra risiedere nel funzionamento del pulsante “condividi” presente nella piattaforma di Grok. Premendo questo pulsante, la chat veniva convertita in un URL univoco, memorizzato sui server di Grok. Tuttavia, contrariamente a quanto ci si potrebbe aspettare, questi link venivano automaticamente resi pubblici e indicizzati, trasformando una funzione progettata per la condivisione privata in un vero e proprio altoparlante globale.
Una delle questioni più inquietanti riguarda l'assenza di avvisi espliciti all'utente che segnalino questo potenziale di pubblicazione. Nei Termini di servizio si concede a xAI un diritto, definito “irrevocabile e mondiale”, di usare, copiare e pubblicare i contenuti caricati. Questo solleva interrogativi sulla consapevolezza degli utenti riguardo alle implicazioni legate alle loro attività online.
Non si tratta di un caso isolato. A seguito del rapporto di 404 Media, è emerso che già all'inizio del mese più di 130.000 chat di altri assistenti come Claude e ChatGPT erano visibili su Archive.org. Ciò dimostra come la questione della trasparenza nel trattamento dei dati riguardi molteplici prodotti tecnologici.
E.M. Lewis-Jong, direttrice della Mozilla Foundation, commenta la faccenda suggerendo agli utenti di non condividere mai dettagli che non vogliono rendere pubblici attraverso chatbot, inclusi dati personali sensibili. Evidenzia inoltre come queste piattaforme, che a volte possono essere utilizzate da minori di appena 13 anni, manchino di avvisi chiari sul potenziale di esposizione dei dati.
La Lewis-Jong ritiene che le aziende tecnologiche debbano trattare l'avvertenza sul possibile utilizzo pubblico dei dati con la serietà attualmente riservata agli avvisi sugli errori dell'AI. Un avviso, simile a un “cartello di pericolo” digitale, che sottolinei i rischi collegati alla pubblicazione dei contenuti.
Oltre alle problematiche di privacy, Grok affronta un'ulteriore sfida nel suo posizionamento sul mercato. Un'analisi della società First Page Sage rivela che Grok detiene solo lo 0,6% della quota di mercato mondiale, in contrasto con il 60,4% di ChatGPT, il 14,1% di Microsoft Copilot e il 13,5% di Google Gemini. Questo gap rende l'incidente della fiducia ancora più critico per un servizio che già fatica a imporsi nel segmento degli assistenti virtuali.
Lo scandalo attorno a Grok solleva serie riflessioni sulla necessità di una maggiore trasparenza e responsabilità nelle comunicazioni da parte delle aziende tecnologiche, non solo per proteggere la privacy degli utenti, ma anche per mantenere la fiducia indispensabile per sopravvivere in un settore altamente competitivo.