L'IA Scrive Exploit Chrome: Hackeraggio con Claude Opus

Un ricercatore usa l'intelligenza artificiale per violare il motore JavaScript V8 di Chrome e Discord, aprendo nuove frontiere nel cybercrime

L'IA Scrive Exploit Chrome: Hackeraggio con Claude Opus

Un ricercatore nel campo della sicurezza informatica, Mohan Pedhapati, ha dimostrato come un modello di intelligenza artificiale, Anthropic Claude Opus 4.6, possa essere impiegato per generare una catena completa di exploit capaci di violare il motore JavaScript V8 del browser Google Chrome 138. Questa versione obsoleta di Chrome è alla base del client Discord, rendendo quest'ultimo vulnerabile.

Il processo di sviluppo degli exploit ha richiesto una settimana di lavoro e un investimento di 2,3 miliardi di token, equivalenti a $2283, per l'accesso all'API del modello AI. Pedhapati ha inoltre dedicato circa 20 ore del proprio tempo per risolvere problematiche e ottimizzare il codice generato dall'IA. L'investimento economico, sebbene significativo per un singolo ricercatore, è ampiamente compensato dal potenziale guadagno derivante dalla segnalazione della vulnerabilità a Google e Discord, che potrebbero ricompensare la scoperta con circa $15.000. Sul mercato nero, un exploit zero-day di questo tipo potrebbe valere cifre ancora più elevate.

Molte applicazioni, tra cui Discord e Slack, sono sviluppate utilizzando il framework Electron, che si basa su Chrome. Tuttavia, il codice di Electron spesso rimane indietro di una versione rispetto al browser e gli sviluppatori non sempre aggiornano tempestivamente le dipendenze. Inoltre, gli utenti potrebbero non installare sempre le versioni più recenti delle applicazioni. Nel caso specifico, Pedhapati ha scelto il client Discord perché operava su Chrome 138, una versione significativamente arretrata rispetto alla versione corrente del browser di Google.

Pedhapati sottolinea che chiunque, con sufficiente pazienza e accesso all'API di un modello di intelligenza artificiale, può potenzialmente violare software non aggiornato. "È solo questione di tempo, non di probabilità", afferma. Inoltre, ogni patch rilasciata diventa un indizio per potenziali exploit, poiché i progetti open source sono sviluppati in modo trasparente e le correzioni sono spesso visibili nel codice prima del rilascio ufficiale degli aggiornamenti.

Per proteggere le applicazioni da attacchi simili, Pedhapati raccomanda di monitorare attentamente le dipendenze, implementare rapidamente le modifiche e automatizzare il rilascio di patch di sicurezza per evitare che il software degli utenti rimanga vulnerabile a causa di mancate installazioni di aggiornamenti. Infine, suggerisce ai progetti open source di prestare attenzione alla pubblicazione di dettagliate informazioni sulle vulnerabilità.

Questo esperimento solleva importanti interrogativi sulla crescente accessibilità agli strumenti di hacking grazie all'intelligenza artificiale. La capacità di generare exploit complessi con relativa facilità potrebbe portare a un aumento degli attacchi informatici e a nuove sfide per la sicurezza del software. È fondamentale che sviluppatori e aziende adottino misure preventive e rafforzino le proprie difese per contrastare questa nuova minaccia.

L'utilizzo dell'IA per la creazione di exploit rappresenta un'evoluzione significativa nel panorama della sicurezza informatica. Mentre in passato la scoperta e lo sviluppo di exploit richiedevano competenze specialistiche e tempo, ora l'intelligenza artificiale può automatizzare gran parte del processo, rendendo queste attività accessibili a un pubblico più ampio. Questo solleva preoccupazioni riguardo alla potenziale proliferazione di attacchi informatici e alla necessità di sviluppare nuove strategie di difesa.

Un aspetto cruciale da considerare è la rapidità con cui i modelli di IA stanno evolvendo. Modelli sempre più potenti e sofisticati potrebbero essere in grado di generare exploit ancora più complessi e difficili da rilevare. Questo richiede un continuo aggiornamento delle competenze e delle tecnologie di sicurezza per rimanere al passo con le nuove minacce.

Inoltre, è importante considerare l'etica dell'utilizzo dell'IA nel campo della sicurezza informatica. Mentre l'IA può essere utilizzata per scopi difensivi, come l'identificazione di vulnerabilità e la protezione dei sistemi, può anche essere utilizzata per scopi offensivi, come la creazione di exploit e l'esecuzione di attacchi. È necessario stabilire linee guida chiare e responsabili per l'utilizzo dell'IA in questo campo, al fine di garantire che venga utilizzata per il bene comune.

In conclusione, la dimostrazione di Mohan Pedhapati evidenzia il potenziale trasformativo dell'intelligenza artificiale nel campo della sicurezza informatica. Se da un lato l'IA può rappresentare una minaccia, dall'altro offre anche nuove opportunità per migliorare la sicurezza del software e proteggere i sistemi da attacchi informatici. Sarà fondamentale monitorare attentamente l'evoluzione di questa tecnologia e sviluppare strategie adeguate per affrontare le sfide che essa pone.

Pubblicato Venerdì, 17 Aprile 2026 a cura di Anna S. per Infogioco.it

Ultima revisione: Venerdì, 17 Aprile 2026

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Infogioco.it - Sconti