La corsa all'intelligenza artificiale (AI) sta alimentando una competizione senza precedenti tra i produttori di memorie ad alte prestazioni. Nvidia, leader indiscusso nel settore delle GPU per l'AI, si prepara a lanciare la sua prossima generazione di acceleratori basati sull'architettura Rubin, e la domanda di memorie HBM4 (High Bandwidth Memory) è destinata a esplodere.
Attualmente, SK Hynix detiene una posizione di vantaggio nel mercato delle HBM3E, ma Samsung Electronics è determinata a colmare il divario con le HBM4. Secondo quanto riportato da Business Korea, sia Samsung che SK Hynix hanno già fornito a Nvidia i primi sample di HBM4 per la fase di certificazione. L'obiettivo è definire i prezzi e i volumi di fornitura entro il primo trimestre del 2026.
La posta in gioco è altissima: le memorie HBM4 rappresentano un componente cruciale per le prestazioni degli acceleratori Rubin di Nvidia, e assicurarsi una fetta consistente del mercato significherebbe profitti enormi. Entrambe le aziende coreane stanno lavorando a stretto contatto con Nvidia per soddisfare le specifiche tecniche richieste.
SK Hynix ha già avviato le trattative preliminari con Nvidia per quanto riguarda i prezzi e i volumi di fornitura delle HBM4, e sembra che le voci di una necessità di riprogettazione delle memorie non corrispondano alla realtà. L'azienda si è dichiarata pronta ad avviare le consegne nel quarto trimestre di quest'anno.
Anche Samsung è in fase avanzata di negoziazione con Nvidia per la fornitura di HBM4 nel 2025. L'azienda punta a diventare il secondo fornitore di HBM4 per Nvidia, sfruttando i suoi vantaggi in termini di tecnologie di litografia più avanzate.
Micron, storicamente il terzo player nel mercato delle HBM, sembra essere leggermente in ritardo nello sviluppo delle HBM4. I primi sample prodotti da Micron avrebbero mostrato prestazioni inferiori rispetto alla concorrenza. Mentre SK Hynix si affida a TSMC per la produzione dei chip logici delle HBM4 e Samsung sfrutta le proprie capacità produttive, Micron ha scelto di produrre internamente i chip logici, limitando il potenziale di miglioramento delle prestazioni.
La competizione tra Samsung e SK Hynix per la fornitura di HBM4 a Nvidia è destinata a intensificarsi nei prossimi mesi. Entrambe le aziende sono pronte a investire massicciamente per conquistare una posizione di leadership in questo mercato cruciale per il futuro dell'intelligenza artificiale.


