Amazon sta intensificando la sua strategia nel campo dell'intelligenza artificiale, stringendo una partnership con la startup Cerebras Systems Inc. per integrare i loro chip avanzati. Questa mossa, che affiancherà i chip Trainium di proprietà di Amazon, mira a creare un ambiente ottimale per l'esecuzione di modelli linguistici di grandi dimensioni. Secondo quanto dichiarato, la piattaforma Amazon Web Services (AWS), uno dei principali fornitori di potenza di calcolo cloud, inizierà a offrire un nuovo servizio basato su questa collaborazione nella seconda metà del 2026. I dettagli finanziari dell'accordo non sono stati divulgati.
La partnership tra Amazon e Cerebras rappresenta un ulteriore tentativo di soddisfare la crescente domanda di infrastrutture per il calcolo nel settore dell'intelligenza artificiale. Nafea Bshara, vicepresidente di Amazon Web Services, ha sottolineato che le due società si sono preparate per questa collaborazione per diversi anni. Ha inoltre aggiunto che la piattaforma AWS intende utilizzare un numero illimitato di chip per aumentare la potenza di calcolo, in base alla domanda del mercato.
Per Cerebras, che sta pianificando un'offerta pubblica iniziale (IPO), avere Amazon tra i suoi clienti potrebbe aumentare significativamente la visibilità dell'azienda in un mercato potenzialmente vastissimo. AWS è diventata la prima tra i principali operatori di data center a impegnarsi nell'integrazione dei chip Cerebras nella propria infrastruttura.
I chip di Amazon e Cerebras lavoreranno in sinergia per fornire capacità di inferenza, ovvero l'esecuzione di modelli linguistici di grandi dimensioni e la generazione di risposte alle richieste in entrata. I chip Amazon Trainium 3 saranno utilizzati per comprendere le richieste degli utenti, mentre i chip Cerebras Wafer Scale Engine si occuperanno della generazione delle risposte. Un approccio di questo tipo potrebbe presentare delle sfide, poiché l'interazione tra componenti diversi potrebbe rallentare il processo. Tuttavia, in questo caso, le aziende mirano a sfruttare il vantaggio derivante dall'utilizzo di chip specializzati, capaci di elaborare più rapidamente le attività di inferenza. Il miglioramento delle prestazioni sarà particolarmente evidente in aree che richiedono interazione con l'utente, come la stesura graduale di codice di programmazione.
Bshara ha precisato che, sebbene un servizio basato esclusivamente sui chip Trainium sarebbe probabilmente più economico, la nuova offerta combinata risulterà interessante laddove il tempo è un fattore critico. Amazon rimane un cliente importante di Nvidia e continua a sviluppare i propri chip per l'intelligenza artificiale. Questi sforzi sono volti a migliorare i risultati economici dei data center dell'azienda e a offrire ai clienti servizi unici.
Questa partnership strategica tra Amazon e Cerebras evidenzia la crescente importanza dei chip specializzati nel panorama dell'intelligenza artificiale. L'integrazione di diverse architetture di chip potrebbe portare a nuove soluzioni innovative e a un'accelerazione nello sviluppo di applicazioni basate sull'intelligenza artificiale. Resta da vedere come questa collaborazione influenzerà il mercato e quali vantaggi concreti apporterà agli utenti di Amazon Web Services.

