In una mossa senza precedenti, le aziende Anthropic e Google, dirette concorrenti di OpenAI, hanno stretto una partnership strategica per contrastare le ambizioni delle aziende cinesi di sfruttare le capacità dei modelli di intelligenza artificiale (IA) sviluppati negli Stati Uniti. L'obiettivo primario è quello di prevenire che le aziende cinesi utilizzino tali competenze per creare prodotti propri e ottenere un vantaggio competitivo nella corsa globale all'IA.
Per facilitare lo scambio di informazioni cruciali, le tre aziende hanno scelto di utilizzare il Frontier Model Forum, un'organizzazione no-profit fondata nel 2023 in collaborazione con Microsoft. OpenAI ha confermato la sua partecipazione attiva al progetto, condividendo informazioni dettagliate sulla 'distillazione' dei modelli di IA. In precedenza, OpenAI aveva presentato al Congresso Americano un documento in cui accusava l'azienda cinese DeepSeek di tentare di "sfruttare gratuitamente le capacità sviluppate da OpenAI e altri laboratori americani all'avanguardia".
La 'distillazione' è un metodo attraverso il quale un modello di IA esistente viene utilizzato per addestrare un nuovo modello, capace di replicare le funzionalità del modello originale, spesso con costi significativamente inferiori rispetto alla creazione di un modello da zero. Alcune forme di questo processo sono ampiamente diffuse e persino incoraggiate per lo sviluppo di modelli più compatti ed efficienti. Gli sviluppatori consentono l'uso di questa tecnica ai propri clienti, ma solo per scopi non legati alla concorrenza diretta.
La maggior parte dei modelli di IA cinesi viene rilasciata con licenze aperte, consentendo agli utenti di eseguirli liberamente sulle proprie piattaforme e di modificarli senza restrizioni. Questo crea problemi per le aziende americane, che rilasciano modelli chiusi e forniscono accesso a pagamento, anche per compensare i propri costi di sviluppo. OpenAI insiste sul fatto che l'azienda cinese DeepSeek stia continuando a utilizzare la 'distillazione' dei modelli americani per creare una nuova versione del suo chatbot.
Lo scambio di informazioni tra gli sviluppatori americani di IA ricalca una pratica standard nel campo della sicurezza informatica, dove le aziende pubblicano regolarmente informazioni su attacchi e tattiche degli aggressori per rafforzare la sicurezza delle risorse online. Lavorando insieme, i creatori di IA mirano a identificare più efficacemente la pratica della 'distillazione', individuare i responsabili e tentare di prevenire l'accesso non autorizzato. Tuttavia, questa procedura è ancora limitata: i partecipanti al progetto non sono certi della misura in cui possono condividere dati tra loro in conformità con le normative antitrust vigenti, che mirano a contrastare la minaccia cinese.
Oltre a OpenAI, anche Anthropic e Google hanno sollevato preoccupazioni riguardo al problema della 'distillazione'. Anthropic ha puntato il dito contro le startup cinesi DeepSeek, Moonshot e MiniMax, mentre Google ha segnalato un aumento dei tentativi di 'distillazione' dei suoi modelli negli ultimi tempi. Le tre aziende non hanno fornito prove concrete che confermino la misura in cui l'industria cinese dell'IA dipende da questo processo, ma hanno notato che il grado della sua diffusione può essere misurato in base ai volumi di richieste di dati su larga scala.
Questa collaborazione tra i giganti dell'IA americana segna un punto di svolta nella competizione tecnologica globale e solleva importanti questioni etiche e legali riguardo alla proprietà intellettuale e alla sicurezza dei dati nell'era dell'intelligenza artificiale. Resta da vedere come questa alleanza strategica influenzerà lo sviluppo futuro dell'IA e le dinamiche competitive tra gli Stati Uniti e la Cina.

