Nel panorama in continua evoluzione dell'industria informatica, l'ascesa dell'intelligenza artificiale (AI) si configura come un fenomeno dirompente, capace di rimodellare le dinamiche del mercato dei componenti. Stime recenti suggeriscono che, entro l'inizio del prossimo anno, il 20% delle linee di produzione di memorie DRAM sarà destinato a soddisfare le esigenze specifiche del settore AI.
Secondo quanto riportato dal Commercial Times, la domanda di memoria ad alta velocità da parte del mercato cloud raggiungerà i 3 exabyte nel corso del prossimo anno. Sebbene questa cifra rappresenti solo il 7,5% della produzione totale di memoria operativa, è significativo notare come una porzione considerevole delle capacità produttive, pari al 20%, sarà dedicata alla produzione di memorie specializzate per applicazioni di AI. Questa tendenza è alimentata dalla crescente richiesta di memorie HBM e GDDR7, essenziali per l'infrastruttura AI, la cui produzione richiede risorse significativamente maggiori rispetto alle tradizionali memorie DDR.
Nello specifico, la produzione di 1 GB di HBM richiede una quantità di materie prime quattro volte superiore rispetto alla DDR, mentre per la GDDR7 il rapporto è di 1,7x. Questa disparità grava notevolmente sulla produzione di chip di memoria, esacerbando la già esistente scarsità. Si prevede che la capacità produttiva mondiale di DRAM raggiungerà i 40 exabyte nel prossimo anno. Tuttavia, con una crescita annua della capacità produttiva di DRAM limitata al 15-20%, il divario tra domanda e offerta è destinato ad ampliarsi ulteriormente. La focalizzazione sulla produzione di memorie più costose e redditizie per il settore AI eserciterà una pressione al rialzo sui prezzi delle tradizionali DDR.
Le esigenze di inferenza dei principali operatori cloud come Google e AWS assorbiranno fino a 750 petabyte di memoria, equivalenti a circa un quarto della domanda totale. Questa stima, già di per sé considerevole, potrebbe facilmente raddoppiare fino a 1,5 exabyte considerando la necessità di riserve e la rapida espansione delle capacità di calcolo. I sistemi cloud privati di aziende come Meta e Apple, unitamente al mercato interno cinese, richiederanno ulteriori 800 petabyte di memoria. Infine, si stima che l'addestramento di nuovi modelli linguistici richiederà circa 500 petabyte di memoria.
In sintesi, l'AI sta plasmando il futuro del mercato delle memorie, con implicazioni significative per la disponibilità e il costo delle DRAM. Questa tendenza richiederà un'attenta gestione delle risorse e una pianificazione strategica per affrontare le sfide poste dalla crescente domanda di memoria nel settore dell'intelligenza artificiale. L'innovazione tecnologica e l'ottimizzazione dei processi produttivi saranno cruciali per mitigare la scarsità e garantire un accesso equo alle risorse di memoria per tutti i settori dell'industria informatica.


