Nel mondo in rapida evoluzione dell'intelligenza artificiale, emergono nuove preoccupazioni riguardo alla sicurezza e alla proprietà intellettuale. Recentemente, Anthropic, una società di ricerca e sviluppo nel campo dell'IA, ha lanciato un allarme significativo riguardo alle pratiche di alcune aziende cinesi. L'accusa è grave: queste aziende starebbero utilizzando tecniche di "distillazione" per accelerare lo sviluppo delle proprie IA, sfruttando il lavoro e i dati di modelli già esistenti, in particolare quelli sviluppati da Anthropic stessa.
La tecnica di "distillazione", in questo contesto, si riferisce a un processo in cui una nuova rete neurale viene addestrata a imitare il comportamento di una rete neurale più grande e complessa. In pratica, l'azienda accusata utilizza un modello IA esistente (in questo caso, quelli della famiglia Claude di Anthropic) per generare dati di addestramento per il proprio modello. In questo modo, si può ottenere un modello più piccolo ed efficiente che replica le capacità del modello originale, risparmiando tempo e risorse nello sviluppo.
Secondo quanto riportato da Bloomberg, Anthropic ha identificato tre aziende cinesi – DeepSeek, MiniMax Group e Moonshot – come responsabili di aver violato i termini di utilizzo dei suoi modelli Claude. Si stima che queste aziende abbiano effettuato oltre 16 milioni di sessioni di scambio dati, utilizzando migliaia di account falsi per mascherare la loro attività. Questo volume massiccio di interazioni suggerisce un tentativo sistematico e su larga scala di estrarre conoscenza e funzionalità dai modelli di Anthropic.
L'allarme lanciato da Anthropic non è isolato. Già in precedenza, OpenAI aveva espresso preoccupazioni simili ai legislatori americani riguardo all'utilizzo della stessa tecnica di "distillazione" da parte di DeepSeek. Queste preoccupazioni sollevano interrogativi cruciali sulla protezione della proprietà intellettuale nell'era dell'IA e sulla necessità di misure di sicurezza più robuste.
La posta in gioco è alta. Come sottolinea Anthropic nel suo blog, le attività dei concorrenti cinesi stanno diventando sempre più sofisticate e pervasive. Il tempo per agire è limitato, e la minaccia si estende oltre i confini di una singola azienda o regione. La proliferazione di modelli IA a basso costo, ma altrettanto potenti, sviluppati in Cina, sta mettendo sotto pressione le aziende occidentali, che spesso si affidano a ecosistemi chiusi e modelli di business basati sulla monetizzazione delle proprie tecnologie.
Un esempio emblematico è il successo di DeepSeek, che circa un anno fa ha presentato il suo modello R1. Questo modello, pur offrendo prestazioni paragonabili a quelle dei concorrenti occidentali, è stato sviluppato a un costo significativamente inferiore. Questo ha permesso alle aziende cinesi di inondare il mercato con modelli IA accessibili, capaci di gestire testo, video e immagini, rendendo più difficile per le aziende americane competere e monetizzare le proprie innovazioni.
Anthropic ha rivelato che i concorrenti cinesi hanno utilizzato account fittizi e server proxy per accedere ai dati di Claude, minimizzando il rischio di essere scoperti. DeepSeek, ad esempio, ha effettuato oltre 150.000 scambi di dati con Claude, mentre MiniMax ha superato i 13 milioni di scambi. L'obiettivo, secondo Anthropic, era quello di replicare le funzionalità avanzate di Claude. La società è fiduciosa nella validità delle sue scoperte, grazie alla collaborazione con partner che hanno contribuito a monitorare e identificare queste attività sospette.
Di fronte a questa minaccia crescente, Anthropic sta sviluppando nuove strategie per proteggere i propri modelli dalla "distillazione" e si offre di condividere queste strategie con altri operatori del settore. L'azienda sottolinea che affrontare questa sfida richiede uno sforzo collettivo: "Nessuna azienda può farcela da sola. Gli attacchi di distillazione su questa scala richiedono una risposta coordinata da parte dell'intero settore dell'IA, compresi i fornitori di servizi cloud e le autorità di regolamentazione".
La vicenda solleva questioni importanti sulla governance e la sicurezza dell'IA. Come proteggere la proprietà intellettuale in un settore in cui la conoscenza e i dati possono essere facilmente replicati e trasferiti? Quali misure possono essere adottate per prevenire l'uso improprio di modelli IA e garantire una competizione leale? Queste sono domande a cui l'industria, i governi e le istituzioni internazionali dovranno rispondere per garantire uno sviluppo responsabile e sostenibile dell'intelligenza artificiale.

