Una recente indagine congiunta, durata 293 giorni e condotta dalle società di cybersecurity SentinelOne e Censys, ha messo in luce l'ampiezza degli scenari d'uso potenzialmente illegali di migliaia di modelli linguistici di grandi dimensioni (LLM) open source. Tra questi, spiccano attività quali hacking, incitamento all'odio e molestie, spam, phishing, creazione di contenuti violenti o crudeli, furto di identità, frodi e materiali pedopornografici.
I ricercatori sostengono che malintenzionati possono facilmente accedere a sistemi che eseguono LLM open source e sfruttarli per inviare massicce quantità di spam, generare contenuti di phishing o orchestrare campagne di disinformazione, eludendo i protocolli di sicurezza delle piattaforme convenzionali. Questo apre un vaso di Pandora di minacce informatiche sofisticate e difficili da tracciare.
Sebbene esistano migliaia di varianti di sistemi LLM open source, una porzione significativa dei modelli disponibili sono derivati di Meta Llama, Google DeepMind Gemma e altri. Nonostante alcuni LLM includano meccanismi di protezione integrati, i ricercatori hanno identificato centinaia di casi in cui tali meccanismi sono stati intenzionalmente disabilitati. Secondo Juan Andres Guerrero-Saade, direttore esecutivo della ricerca sull'intelligence e la sicurezza di SentinelOne, il dibattito nel settore dell'IA sulle misure di sicurezza tende a "ignorare questo potenziale in eccesso, che viene chiaramente sfruttato per una vasta gamma di scopi, alcuni leciti e altri palesemente criminali".
L'indagine ha analizzato piattaforme pubbliche basate su Ollama. In circa un quarto dei modelli osservati, i ricercatori sono stati in grado di visualizzare i "system prompts", ovvero le istruzioni che definiscono il comportamento del modello. Circa il 7,5% di questi suggerimenti potrebbe essere utilizzato per attività dannose. Inoltre, circa il 30% degli host monitorati dai ricercatori si trova in Cina, mentre il 20% negli Stati Uniti. Questa distribuzione geografica solleva interrogativi sulla provenienza e la natura delle attività illecite.
Rachel Adams, amministratore delegato e fondatrice del Global Center on AI Governance, sottolinea che, una volta rilasciati modelli aperti, la responsabilità delle azioni successive si estende a tutti i partecipanti all'ecosistema, compresi i laboratori di origine. "I laboratori non sono responsabili per ogni successivo abuso, ma conservano un importante obbligo di prevedere possibili danni, documentare i rischi e fornire strumenti e indicazioni per mitigarli, soprattutto data la disomogeneità delle capacità globali di applicazione della legge", ha affermato Adams. La sua affermazione evidenzia la necessità di una governance più robusta e di una collaborazione internazionale per affrontare le sfide poste dall'IA open source.
Un portavoce di Meta ha preferito non rispondere a domande sulla responsabilità degli sviluppatori nell'affrontare i problemi legati al successivo abuso di modelli open source e su come segnalare tali problemi, ma ha evidenziato la disponibilità di strumenti Llama Protection per gli sviluppatori di Llama, nonché della guida Meta Llama Responsible Use Guide. Questo suggerisce un tentativo di fornire linee guida e strumenti per un utilizzo responsabile, ma solleva interrogativi sull'efficacia di tali misure nel prevenire abusi.
Un rappresentante di Microsoft ha dichiarato che i modelli open source "svolgono un ruolo importante" in vari settori, ma ha riconosciuto che "i modelli aperti, come tutte le tecnologie dirompenti, possono essere utilizzati impropriamente da soggetti malintenzionati se rilasciati senza adeguate misure di protezione". Questa ammissione sottolinea la necessità di un approccio equilibrato che promuova l'innovazione pur mitigando i rischi potenziali.
In definitiva, un'innovazione aperta e responsabile come il lancio di modelli IA accessibili open source richiede la collaborazione tra creatori, sviluppatori, ricercatori e team di sicurezza. Solo attraverso un impegno congiunto sarà possibile sfruttare i benefici dell'IA open source, riducendo al minimo i rischi di abusi e garantendo un futuro digitale più sicuro e affidabile.

