Nvidia si prepara a lanciare un nuovo processore specificamente progettato per supportare OpenAI e altri clienti nello sviluppo di applicazioni di intelligenza artificiale più veloci ed efficienti. Questo annuncio segna un cambio di direzione per Nvidia, che in precedenza si era concentrata principalmente sull'addestramento di modelli AI.
La nuova piattaforma di Nvidia, pensata per l'inferenza (l'esecuzione dei modelli AI per rispondere alle richieste degli utenti), sarà presentata al Nvidia GTC (la conferenza per sviluppatori che si terrà a marzo) e includerà un chip sviluppato dalla startup Groq. Questo ingresso nel mercato dell'inferenza intensifica la competizione con Google e Amazon, che hanno già sviluppato acceleratori propri, capaci di rivaleggiare con i prodotti Nvidia. La situazione è ulteriormente complicata dalla crescente popolarità del "вайб-кодинга" ovvero la generazione di codice da parte di sistemi AI a partire da semplici richieste testuali.
OpenAI si è già impegnata ad essere uno dei principali clienti per il nuovo processore, rappresentando una vittoria significativa per Nvidia. Recentemente, lo sviluppatore di ChatGPT ha accennato a questo progetto, annunciando un importante accordo per l'acquisizione di "capacità dedicate per l'inferenza" da Nvidia, oltre a un investimento di 30 miliardi di dollari da parte del produttore di chip. La società ha anche stretto un accordo per utilizzare gli acceleratori AI Trainium di Amazon.
Nvidia domina il mercato delle GPU (Graphics Processing Units), chip capaci di eseguire simultaneamente miliardi di operazioni semplici. Le GPU delle famiglie Hopper, Blackwell e Rubin sono considerate le migliori per l'addestramento dell'AI, con una quota di mercato stimata superiore al 90%. Il CEO di Nvidia, Jensen Huang, sostiene che i prodotti Nvidia sono adatti sia per l'addestramento che per l'inferenza. Tuttavia, gli sviluppatori di agenti AI e altre applicazioni basate sull'AI stanno realizzando che, rispetto alle soluzioni concorrenti, i chip Nvidia sono troppo costosi, energivori e meno adatti all'esecuzione di modelli già addestrati.
Nel gennaio OpenAI ha avviato una collaborazione con la startup Cerebras, che offre un chip orientato all'inferenza che, a detta dell'azienda, è più veloce degli acceleratori Nvidia. Le trattative tra OpenAI e Cerebras erano iniziate nell'autunno precedente, quando gli ingegneri di OpenAI avevano richiesto hardware più veloce per le applicazioni di generazione automatica di codice. Nvidia, invece, aveva concluso un accordo da 20 miliardi di dollari con Groq nel corso dell'anno precedente, acquisendone le tecnologie e assumendo i suoi top manager, incluso il fondatore. Groq ha sviluppato chip basati su un'architettura innovativa, che include "blocchi di elaborazione del linguaggio", particolarmente efficienti nelle attività di inferenza. Al momento, Nvidia non ha ancora chiarito come intende utilizzare queste risorse.
Uno dei settori più promettenti nel campo dell'AI è quello della generazione di codice. Anthropic Claude Code è considerato il leader in questo campo, operando nelle infrastrutture cloud di Amazon e Google. Tuttavia, anche OpenAI Codex sta crescendo rapidamente e sarà supportato dalla nuova infrastruttura Nvidia. Nvidia ha anche stretto un accordo con Meta per l'inferenza di sistemi AI utilizzati per il targeting pubblicitario, un'attività che si rivela più efficiente sui processori centrali (CPU).

