Mentre OpenAI e Nvidia sono universalmente riconosciute come le principali beneficiarie dell'attuale boom dell'intelligenza artificiale, una partnership apparentemente solida da 100 miliardi di dollari potrebbe essere a rischio. Secondo fonti di Reuters, OpenAI starebbe attivamente cercando alternative alle soluzioni di Nvidia, in particolare per quanto riguarda l'inferenza, ovvero la fase in cui i modelli di intelligenza artificiale addestrati vengono utilizzati per generare risposte e previsioni.
Pubblicamente, entrambe le aziende continuano a professare una forte lealtà reciproca. Tuttavia, dietro le quinte, OpenAI sembrerebbe insoddisfatta delle prestazioni degli acceleratori Nvidia in questo specifico ambito. L'obiettivo sarebbe sostituire fino al 10% degli acceleratori nella propria infrastruttura di calcolo con soluzioni di fornitori terzi, capaci di garantire una maggiore efficienza nell'inferenza con modelli linguistici di grandi dimensioni.
Inizialmente, OpenAI aveva manifestato interesse per le soluzioni proposte da Cerebras e Groq. Quest'ultima, in particolare, era stata oggetto di un'offerta di acquisizione da 20 miliardi di dollari da parte di Nvidia, che ha superato un'offerta di investimento di 14 miliardi di dollari da parte di altri investitori. L'accordo con Nvidia, tuttavia, presentava una clausola peculiare: Groq ha mantenuto la possibilità di concedere in licenza le proprie tecnologie ad altre aziende, ma Nvidia ha trasferito nel proprio organico i principali sviluppatori degli acceleratori di Groq. Di fatto, Groq ora può offrire alle altre aziende principalmente software per sistemi cloud.
Questo scenario solleva interrogativi sulla reale efficacia dell'offerta di Nvidia di investire fino a 100 miliardi di dollari in OpenAI. Entrambe le società negano l'esistenza di problemi, anche se Nvidia sottolinea che i suoi impegni non sono vincolanti.
OpenAI è riuscita a stringere un accordo con Cerebras per l'acquisto dei suoi cosiddetti "acceleratori Tsar", che si sono dimostrati validi per l'inferenza. Il nodo cruciale per OpenAI è la forte dipendenza dagli acceleratori di Nvidia e AMD, che utilizzano memoria esterna HBM, seppur molto veloce. Per l'inferenza, tuttavia, i chip con un'ampia memoria integrata, come quelli offerti da Groq, Cerebras e Google, sembrano più performanti. Anthropic, ad esempio, è riuscita a raggiungere un accordo con Google, spingendo OpenAI a cercare alternative.
Secondo alcune indiscrezioni, OpenAI ha riscontrato inefficienze negli acceleratori Nvidia durante la creazione di Codex, un agente di intelligenza artificiale che supporta gli sviluppatori nella scrittura di codice. Sebbene gli utenti di ChatGPT non riscontrino gli stessi problemi, OpenAI intende offrire soluzioni hardware alternative, come i prodotti di Cerebras, per migliorare le prestazioni degli strumenti software dedicati ai programmatori.
La mossa di OpenAI evidenzia la crescente importanza dell'ottimizzazione dell'inferenza per le applicazioni di intelligenza artificiale e la volontà di diversificare le fonti di approvvigionamento per garantire prestazioni superiori e una maggiore indipendenza tecnologica. Resta da vedere come questa strategia influenzerà la partnership con Nvidia e il futuro del mercato degli acceleratori per l'intelligenza artificiale.

