ChatGPT: Un alleato involontario per i phisher

ChatGPT: Un alleato involontario per i phisher

Gli errori dei chatbot offrono nuove opportunità ai truffatori del web

ChatGPT e altri popolari chatbot sono diventati strumenti involontari di phishing, offrendosi come facile bersaglio per i truffatori del web. Recenti ricerche condotte da Netcraft hanno rivelato che questi strumenti di intelligenza artificiale spesso commettono errori quando i loro utenti chiedono indicazioni sui siti ufficiali di grandi aziende.

Secondo i test effettuati, la versione GPT-4.1 riusciva a fornire correttamente l'URL desiderato solo nel 66% dei casi. Nel restante 34% dei casi, proponeva link che conducevano a pagine inesistenti (29%) o comunque non corrispondenti a quelle richieste (5%).

Un'immagine complessa emerge dall'intervista con Rob Duncan, capo della ricerca sulle minacce presso Netcraft. Duncan spiega che questi errori offrono nuove potenziali strade per i criminali informatici. Quando un chatbot suggerisce un dominio non attivo, i truffatori possono registrarlo e costruire false pagine di phishing con facilità. Ciò avviene perché i chatbot analizzano principalmente le parole chiave e le associazioni piuttosto che verificare la reputazione dei siti.

Un esempio concreto è dato dal caso in cui ChatGPT, su richiesta, ha fornito un indirizzo web falso per Wells Fargo, precedentemente utilizzato in attacchi di phishing. Come sottolineato dallo stesso Duncan, il rischio maggiore è che gli utilizzatori del web si fidino sempre più di questi strumenti invece che dei motori di ricerca tradizionali, non considerando che i chatbot possono essere manipolati.

In particolare, i malintenzionati progettano contenuti che aumentano la probabilità di essere citati dai chatbot. Netcraft ha individuato un falso API di Solana, sparso attraverso repository di GitHub, materiali di apprendimento e falsi account social, il tutto progettato per integrare codice nocivo nei risultati prodotti dai bot.

La strategia di attacco è paragonata da Duncan alle incursioni sulla catena di distribuzione, differendo però per l'obiettivo finale: convincere gli sviluppatori a utilizzare un API errata. Sia nel caso delle catene di approvvigionamento che in scenari di questo tipo, l'approccio degli attaccanti è paziente e progressivo, ma l’esito è invariabilmente pericoloso.

Queste pratiche sollevano significative preoccupazioni sulla fiducia automatica che il pubblico ripone negli assistenti digitali. Evidenziano altresì la necessità di maggiore consapevolezza e formazione sia per gli utenti comuni che per gli sviluppatori, per potenziare la sicurezza digitale nel contesto di un mondo sempre più guidato dall'IA.

Pubblicato Domenica, 06 Luglio 2025 a cura di Anna S. per Infogioco.it

Ultima revisione: Domenica, 06 Luglio 2025

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
WorldMatch - Gambling software solutions
Infogioco.it - Sconti