Un'importante falla di sicurezza nella piattaforma Meta AI è stata recentemente individuata e corretta, dopo che un esperto di sicurezza informatica ha scoperto un'inquietante vulnerabilità. La scoperta è stata fatta da Sandeep Hodkasia, il fondatore dell'azienda AppSecure, che ha identificato un bug che permetteva un accesso non autorizzato ai dialoghi altrui con l'intelligenza artificiale di Meta. Come parte del loro programma di ricompensa per la scoperta di bug, Meta ha riconosciuto l'importante contributo di Hodkasia con una ricompensa di $10.000.
Stando a quanto riportato da TechCrunch, il ricercatore ha individuato il problema il 26 dicembre 2024, durante un'analisi del meccanismo di modifica delle richieste nell'intelligenza artificiale di Meta. Hodkasia ha scoperto che, quando un testo o un'immagine veniva modificato, i server di Meta assegnavano a ciascuna richiesta e risposta un numero identificativo univoco (ID). Tuttavia, è emerso che modificando questo ID nei comandi di rete, era possibile accedere ai dialoghi di altri utenti con l'intelligenza artificiale.
La falla risiedeva nella mancanza di controllo sui diritti degli utenti per visualizzare specifiche richieste. Secondo Hodkasia, tali numeri ID erano facilmente prevedibili, consentendo, in teoria, a malintenzionati di raccogliere ampie quantità di dati semplicemente provando diverse combinazioni. Fortunatamente, Meta ha corretto questa vulnerabilità il 24 gennaio 2025, e un portavoce della compagnia, Ryan Daniels, ha rassicurato il pubblico affermando che non sono state trovate prove di un uso malevolo del bug.
Questo incidente si colloca in un contesto di crescente sviluppo dei prodotti di intelligenza artificiale da parte delle grandi aziende tecnologiche, che spesso si trovano a dover gestire questioni di sicurezza. Non è la prima volta che Meta AI finisce sotto i riflettori per problemi simili; in passato, è già accaduto che utenti pubblicassero per errore dialoghi privati con chatbot, credendo erroneamente di mantenerli confidenziali.
La rapida risoluzione del problema mostra l'importanza della vigilanza continua nella sicurezza dei dati in un'era in cui l'intelligenza artificiale è sempre più integrata nelle nostre vite quotidiane. L'approccio responsabile di Meta, con il prontezza nella risoluzione delle vulnerabilità e il riconoscimento del contributo di coloro che le identificano, è un esempio di come dovrebbero essere gestite tali situazioni. Tuttavia, questo evento serve anche come monito per l'intero settore delle tecnologie AI, sottolineando la necessità di approcci costanti e proattivi nella protezione delle informazioni sensibili degli utenti.