Il fenomeno dell'intelligenza artificiale generativa ha travolto ogni settore della vita digitale, ma un effetto inaspettato sta emergendo proprio nei luoghi più oscuri e tecnologicamente avanzati della rete: i forum frequentati da hacker, truffatori e professionisti del crimine informatico. Nonostante queste figure siano spesso le prime a sperimentare le nuove tecnologie per fini illeciti, una crescente ondata di malcontento sta scuotendo le fondamenta delle comunità underground. Una recente ricerca condotta dagli studiosi della Università di Edimburgo, nel Regno Unito, ha messo in luce una realtà paradossale: i cybercriminali si sentono assediati da quella che definiscono "IA spazzatura", ovvero una mole insostenibile di contenuti di bassa qualità che sta inquinando i canali di comunicazione riservati e i mercati del dark web.
L'analisi condotta dal team scozzese ha preso in esame un database mastodontico composto da 97.895 conversazioni avvenute su diverse piattaforme hacker a partire dal novembre 2022, data che segna il debutto globale di ChatGPT, fino alla fine del 2023. I risultati mostrano un cambiamento radicale nel clima di queste comunità. Storicamente, i forum hacker sono stati luoghi di elite dove la reputazione si costruiva attraverso la condivisione di exploit originali, codice raffinato e intuizioni tecniche brillanti. Oggi, invece, molti utenti lamentano che queste stesse piattaforme sono inondate da riassunti banali di concetti di sicurezza informatica generati da bot, post scritti senza alcuno sforzo umano e guide superficiali che non portano alcun valore aggiunto alla comunità dei professionisti del crimine.
Il fastidio degli hacker non è solo una questione di estetica o di pigrizia intellettuale. C’è una minaccia strutturale al modello di business criminale che si è consolidato negli ultimi decenni. Molti amministratori di questi forum segreti, cercando di cavalcare l'onda del progresso tecnologico, hanno iniziato a monetizzare l'integrazione di strumenti di intelligenza artificiale all'interno delle loro piattaforme, richiedendo pagamenti aggiuntivi per l'accesso a funzioni automatizzate. Questo approccio commerciale ha scatenato la furia della base, che vede nell'automazione una perdita del senso di comunità e di cameratismo criminale. Un utente di un noto forum ha espresso la propria frustrazione affermando che il valore di questi spazi risiede nel contatto umano e nel confronto diretto tra menti creative, sottolineando che per interagire con un software avrebbe potuto restare sui siti legali accessibili a chiunque su Google.
Un altro punto di frizione riguarda l'impatto dell'IA sulla visibilità stessa dei forum. Con l'introduzione dei riassunti generati dall'intelligenza artificiale nei risultati di ricerca di Google, molti hacker temono che il traffico organico verso i loro siti stia diminuendo drasticamente. Se un motore di ricerca può fornire una sintesi di un metodo di hacking o di una vulnerabilità senza che l'utente debba cliccare sul link del forum, l'intero ecosistema basato sulla pubblicità, sulla vendita di dati e sui servizi illegali rischia il collasso finanziario. Questa preoccupazione riflette una dinamica che sta colpendo anche il web di superficie, ma che nel mondo del cybercrime assume contorni di una lotta per la sopravvivenza digitale.
Dal punto di vista tecnico, l'uso dell'IA per creare malware o cercare vulnerabilità si è rivelato un'arma a doppio taglio. Mentre i criminali meno esperti vedono in strumenti come ChatGPT una scorciatoia per entrare nel settore, i veterani sono estremamente scettici. Il codice scritto dall'IA è spesso pieno di bug e vulnerabilità intrinseche che possono esporre l'infrastruttura dell'hacker stesso alle autorità o a rivali. È emerso che alcuni prodotti hacker generati tramite intelligenza artificiale contengono debolezze tali da permettere il tracciamento dei server di comando e controllo. In questo contesto, l'accusa di essere un "hacker da IA" è diventata un insulto comune nei forum, un marchio di incompetenza che denota l'incapacità di operare senza l'ausilio di un algoritmo.
Tuttavia, nonostante il rigetto ideologico e qualitativo, l'IA sta trovando terreno fertile in ambiti già fortemente automatizzati. Le truffe legate alla SEO, la gestione di botnet sui social media e le frodi sulle app di incontri stanno beneficiando della capacità dell'IA di generare testi persuasivi in diverse lingue, riducendo gli errori grammaticali che spesso tradivano i tentativi di phishing provenienti dall'estero. Ma anche qui, la reazione è mista: se da un lato c'è chi apprezza la possibilità di scrivere messaggi più credibili, dall'altro cresce il timore che un'eccessiva automazione porti alla creazione di mercati completamente gestiti da macchine, dove il fattore umano e la fiducia reciproca — elementi paradossalmente fondamentali nel mondo dell'illegalità — svaniscano definitivamente. Il futuro delle comunità hacker appare dunque incerto, diviso tra la tentazione dell'efficienza algoritmica e la necessità di preservare quell'ingegno umano che, fino ad oggi, ha rappresentato il vero motore del cybercrime globale.

