ChatGPT e altri popolari chatbot sono diventati strumenti involontari di phishing, offrendosi come facile bersaglio per i truffatori del web. Recenti ricerche condotte da Netcraft hanno rivelato che questi strumenti di intelligenza artificiale spesso commettono errori quando i loro utenti chiedono indicazioni sui siti ufficiali di grandi aziende.
Secondo i test effettuati, la versione GPT-4.1 riusciva a fornire correttamente l'URL desiderato solo nel 66% dei casi. Nel restante 34% dei casi, proponeva link che conducevano a pagine inesistenti (29%) o comunque non corrispondenti a quelle richieste (5%).
Un'immagine complessa emerge dall'intervista con Rob Duncan, capo della ricerca sulle minacce presso Netcraft. Duncan spiega che questi errori offrono nuove potenziali strade per i criminali informatici. Quando un chatbot suggerisce un dominio non attivo, i truffatori possono registrarlo e costruire false pagine di phishing con facilità. Ciò avviene perché i chatbot analizzano principalmente le parole chiave e le associazioni piuttosto che verificare la reputazione dei siti.
Un esempio concreto è dato dal caso in cui ChatGPT, su richiesta, ha fornito un indirizzo web falso per Wells Fargo, precedentemente utilizzato in attacchi di phishing. Come sottolineato dallo stesso Duncan, il rischio maggiore è che gli utilizzatori del web si fidino sempre più di questi strumenti invece che dei motori di ricerca tradizionali, non considerando che i chatbot possono essere manipolati.
In particolare, i malintenzionati progettano contenuti che aumentano la probabilità di essere citati dai chatbot. Netcraft ha individuato un falso API di Solana, sparso attraverso repository di GitHub, materiali di apprendimento e falsi account social, il tutto progettato per integrare codice nocivo nei risultati prodotti dai bot.
La strategia di attacco è paragonata da Duncan alle incursioni sulla catena di distribuzione, differendo però per l'obiettivo finale: convincere gli sviluppatori a utilizzare un API errata. Sia nel caso delle catene di approvvigionamento che in scenari di questo tipo, l'approccio degli attaccanti è paziente e progressivo, ma l’esito è invariabilmente pericoloso.
Queste pratiche sollevano significative preoccupazioni sulla fiducia automatica che il pubblico ripone negli assistenti digitali. Evidenziano altresì la necessità di maggiore consapevolezza e formazione sia per gli utenti comuni che per gli sviluppatori, per potenziare la sicurezza digitale nel contesto di un mondo sempre più guidato dall'IA.