Nvidia ha svelato una roadmap aggiornata e ambiziosa per il futuro dell'hardware destinato ai data center, confermando il suo impegno a rinnovare annualmente la famiglia di GPU per l'intelligenza artificiale (AI) e a introdurre cambiamenti radicali nell'architettura ogni pochi anni. Questi aggiornamenti non si limiteranno alle sole GPU, ma coinvolgeranno anche le tecnologie complementari, promettendo un'evoluzione continua delle capacità di calcolo.
Nel 2026, Nvidia prevede di lanciare la nuova piattaforma Vera Rubin, basata sulle CPU Vera e sulle GPU Rubin. L'ecosistema Vera Rubin includerà anche l'acceleratore per l'inferenza (Language Processing Unit — LPU) Groq LP30, il processore di rete (DPU) BlueField-4, lo switch di interconnessione NVLink 6, un'infrastruttura di rete Ethernet Spectrum-X aggiornata con ottica integrata (CPO) e l'adattatore di rete ConnectX 9 1600G SuperNIC. L'integrazione dell'LPU Groq nell'offerta Nvidia, in sostituzione del Rubin CPX precedentemente menzionato, rappresenta una novità significativa.
Il 2027 vedrà la produzione degli acceleratori AI Rubin Ultra, basati su quattro chiplet di calcolo e 1 TB di memoria HBM4E. Questi acceleratori promettono prestazioni superiori rispetto ai Rubin previsti per quest'anno. Insieme alle GPU Rubin Ultra, saranno utilizzati i blocchi di inferenza Groq LP35, che supporteranno il formato dati NVFP4 per una maggiore velocità operativa. Un'altra innovazione sarà la soluzione rack Kyber NVL144, che comprenderà 144 acceleratori Rubin Ultra con uno switch NVLink 7, promettendo un aumento di performance di almeno quattro volte rispetto ai rack Oberon NVL72 basati su 72 acceleratori Blackwell.
Mentre nel 2027 Nvidia incrementerà le prestazioni dei data center aumentando il numero di GPU per rack e implementando un nuovo LPU con supporto NVFP4, nel 2028 la società introdurrà un'architettura completamente nuova. Questa architettura includerà le CPU Rosa (abbreviazione di Rosalyn), le GPU Feynman, i processori di rete BlueField-5 e le schede di rete SuperNIC CX10 basate sull'infrastruttura Ethernet Spectrum-X di settima generazione. La soluzione rack sarà aggiornata a Kyber CPO, scalando i sistemi tramite cavi in rame e ottica.
Le GPU Feynman di Nvidia per i data center utilizzeranno una tecnologia di impilamento di chiplet multistrato per scalare le prestazioni. Saranno probabilmente affiancate da una memoria ad alta velocità C-HBM4E aggiornata, con maggiore larghezza di banda e capacità superiore a 1 TB per GPU. L'introduzione dei chip Rosa indica un'accelerazione del passaggio a una nuova generazione di CPU, riducendo il ciclo da quattro a due anni, in linea con i leader di mercato AMD e Intel. Infine, Feynman utilizzerà per la prima volta switch NVLink con ottica integrata, aumentando il numero di acceleratori per rack Oberon fino a 576, o fino a 1152 nel rack Kyber. Questa roadmap sottolinea l'impegno di Nvidia a spingere i confini dell'innovazione nel calcolo ad alte prestazioni, offrendo soluzioni sempre più potenti ed efficienti per i data center del futuro.

