Qualcomm si prepara a scuotere il mercato dell'intelligenza artificiale nei data center, lanciando una sfida diretta a colossi come Nvidia e AMD. L'azienda ha annunciato l'introduzione di due nuove piattaforme, AI200 e AI250, progettate specificamente per l'inferenza di intelligenza artificiale. Questo segna un cambio di rotta strategico per Qualcomm, tradizionalmente focalizzata sui chip per dispositivi mobili, che ora punta a diventare un protagonista nel settore degli acceleratori per l'AI generativa su larga scala.
Le nuove piattaforme di Qualcomm promettono di combinare prestazioni elevate e ampie capacità di memoria, il tutto in configurazioni rack complete. L'obiettivo è offrire un rapporto ottimale tra potenza, efficienza energetica e costo, elementi cruciali per i data center moderni. La piattaforma AI200 introduce un sistema di inferenza AI a livello di rack, ottimizzato per i modelli linguistici e multimodali di grandi dimensioni (LLM e LMM). Supporta fino a 768 GB di memoria LPDDR per scheda, consentendo una gestione più estesa dei dati e una maggiore scalabilità delle implementazioni AI.
Guardando al futuro, la piattaforma AI250, prevista per il 2027, introdurrà una nuova architettura di memoria basata sul calcolo "near-memory". Questa innovazione promette di incrementare di oltre dieci volte la larghezza di banda effettiva della memoria, riducendo al contempo i consumi energetici. Grazie a questo approccio, sarà possibile gestire inferenze AI disaggregate, ottimizzando l'utilizzo delle risorse hardware e mantenendo elevati standard di prestazioni a costi contenuti. Entrambe le soluzioni adottano sistemi di raffreddamento a liquido e connessioni PCIe per l'espansione interna, oltre a connettività Ethernet per la scalabilità esterna. Il consumo energetico massimo a livello di rack è stimato in 160 kW.
Parallelamente all'hardware, Qualcomm ha sviluppato un'infrastruttura software completa, progettata per operare su vasta scala e ottimizzata per l'inferenza AI. Questa infrastruttura è compatibile con i principali framework di machine learning e AI generativa, e include strumenti e librerie per la gestione dei modelli. Offre inoltre supporto per l'integrazione di soluzioni come Hugging Face tramite la Efficient Transformers Library e la Qualcomm AI Inference Suite, oltre a funzionalità di deployment rapido e integrazione semplificata.
Durga Malladi, Senior Vice President e General Manager per Technology Planning, Edge Solutions & Data Center di Qualcomm Technologies, ha sottolineato l'importanza di queste nuove soluzioni: "Con Qualcomm AI200 e AI250 stiamo ridefinendo ciò che è possibile per l'inferenza AI a livello di rack. Queste soluzioni consentono ai clienti di implementare AI generativa con un costo totale di proprietà senza precedenti, mantenendo al contempo la flessibilità e la sicurezza richieste dai data center moderni".
Le prime schede basate su AI200 e AI250 saranno disponibili rispettivamente nel 2026 e nel 2027. Qualcomm ha espresso l'intenzione di mantenere una roadmap annuale per le soluzioni AI destinate ai data center, con l'obiettivo di coniugare prestazioni di inferenza di livello industriale, efficienza energetica e competitività sul piano del costo complessivo di gestione.
Prima di procedere


