NVIDIA sta intensificando la sua strategia per rimanere un protagonista chiave nel mercato dei sistemi di Intelligenza Artificiale (IA), anche in un contesto in cui un numero crescente di clienti sviluppa soluzioni che competono direttamente con i suoi prodotti. Secondo quanto riportato da The Information, l'azienda ha intrapreso lo sviluppo di server rack progettati per supportare soluzioni basate su acceleratori IA di terze parti.
La mossa strategica di NVIDIA si è concretizzata con la presentazione dei nuovi rack MGX ETL, appositamente progettati per supportare sia i chip prodotti internamente, sia quelli dei fornitori concorrenti. Questa nuova architettura si basa sul design modulare MGX (OCP), introdotto nel 2023 e che ha già riscosso una notevole diffusione nel settore. Un elemento distintivo dell'ETL è l'integrazione delle soluzioni di rete NVIDIA Spectrum-X, garantendo che i chip dell'azienda rimangano parte integrante dell'infrastruttura, anche quando basata su soluzioni di terze parti.
Parallelamente, NVIDIA sta potenziando il suo interconnettore proprietario NVLink. Attraverso l'integrazione di NVLink Fusion in altri chip, l'azienda mira a monetizzare anche i sistemi IA sviluppati da altre aziende. Tuttavia, nel caso dell'ETL, vengono adottati standard Ethernet ampiamente supportati nel settore, riducendo così le barriere all'adozione per i clienti interessati ad implementare l'hardware NVIDIA. La flessibilità del design modulare consente agli hyperscaler cloud di utilizzare contemporaneamente acceleratori di diversi produttori, pur rimanendo all'interno degli ecosistemi di rete e software di NVIDIA.
NVIDIA ha posizionato MGX come un'architettura "di riferimento" aperta, che non preclude ai partner l'utilizzo di componenti alternativi. Questa flessibilità strategica permette a NVIDIA di aprirsi un varco nel mercato cinese, dove le aziende possono utilizzare i rack NVIDIA con chip sviluppati internamente. Inoltre, il nuovo design dei rack potrebbe contribuire a dissipare le preoccupazioni delle autorità di regolamentazione riguardo alla pratica, precedentemente adottata da NVIDIA, di vincolare l'utilizzo di determinate apparecchiature di rete a specifici chip IA.
In questo scenario, si assiste a un'intensificazione della concorrenza nel mercato delle tecnologie di interconnessione. Lo standard aperto UALink si propone come alternativa a NVLink, con l'obiettivo di fornire una connessione ad alta velocità tra i chip IA senza ricorrere a tecnologie proprietarie. Contemporaneamente, si sta sviluppando lo standard aperto Ultra Ethernet, destinato a competere con la tecnologia Infiniband, attualmente controllata quasi esclusivamente da NVIDIA.
Le soluzioni di rete rappresentano un segmento estremamente importante per il business di NVIDIA. Nell'ultimo trimestre, i ricavi dell'azienda in questo settore hanno raggiunto i 10,98 miliardi di dollari (e 31 miliardi di dollari nell'intero anno), con una crescita del 268% rispetto all'anno precedente, rappresentando oltre il 15% del fatturato totale dell'azienda. È importante notare che una parte significativa delle apparecchiature di rete viene venduta non singolarmente, ma come parte delle soluzioni piattaforma NVIDIA.
L'adozione di standard aperti come Ethernet e il supporto per acceleratori di terze parti, segnalano una strategia di NVIDIA volta a democratizzare l'accesso alle tecnologie di IA, rendendole più accessibili e interoperabili. Questo approccio non solo mitiga le preoccupazioni normative e facilita l'ingresso in mercati specifici come quello cinese, ma permette anche a NVIDIA di estendere la propria influenza nell'ecosistema dell'IA, garantendo che le sue tecnologie di rete e software rimangano centrali, indipendentemente dall'hardware utilizzato.

