Google intensifica la competizione nel settore dell'intelligenza artificiale (IA), rispondendo alle mosse di OpenAI con una strategia aggressiva: investimenti massicci per incentivare l'adozione dei propri acceleratori di IA, i TPU (Tensor Processing Units). L'iniziativa, come riportato dal Wall Street Journal, mira a contrastare il dominio di Nvidia, i cui chip sono largamente preferiti dai principali provider di servizi cloud.
Il piano di Google si concentra sui nuovi operatori del mercato cloud, i cosiddetti "neocloud", e su aziende che si stanno riconvertendo, come quelle provenienti dal settore del crypto mining. L'obiettivo è semplice: offrire incentivi finanziari significativi per spingere queste realtà ad integrare i TPU di Google nelle loro infrastrutture.
Un esempio concreto è la trattativa in corso per un investimento di 100 milioni di dollari nella startup cloud Fluidstack, parte di un accordo più ampio da 7,5 miliardi di dollari. La condizione posta da Google è chiara: Fluidstack dovrà utilizzare i suoi hardware all'interno della propria infrastruttura di calcolo. Parallelamente, Google starebbe valutando di supportare finanziariamente diversi progetti nati dalle ceneri del crypto mining, ora focalizzati sulla creazione di data center.
Internamente, si discute anche di una maggiore autonomia per la divisione che sviluppa i TPU. Questa mossa potrebbe consentire di attrarre capitali esterni per finanziare ulteriormente la produzione di questi chip. Tuttavia, Google ha smentito ufficialmente tali intenzioni.
Google offre ai clienti del suo cloud l'accesso ai TPU dal 2018. Ciononostante, gran parte dell'infrastruttura cloud di Google continua a dipendere dagli acceleratori di Nvidia. Recentemente, Google ha iniziato a proporre i suoi TPU a clienti terzi, che li utilizzano per costruire autonomamente le proprie capacità di calcolo. Amin Vahdat, responsabile dello sviluppo dei TPU, ha visto crescere il suo ruolo, diventando chief technologist per l'infrastruttura IA, rispondendo direttamente al CEO Sundar Pichai.
Un ostacolo significativo all'espansione dei TPU è la limitata capacità produttiva di TSMC, che sembra privilegiare le commesse di Nvidia. Anche la carenza di memoria operativa incide negativamente sulla crescita dell'infrastruttura basata sui TPU. Nonostante queste difficoltà, diverse grandi aziende, tra cui Meta e Anthropic, avrebbero mostrato interesse per gli acceleratori di Google. Tuttavia, Amazon (AWS), competitor diretto di Google, difficilmente abbandonerà i propri processori Graviton per abbracciare i TPU. Lo stesso vale per Microsoft, con il suo servizio cloud Azure.
La strategia di Google rappresenta una sfida diretta al predominio di Nvidia nel mercato degli acceleratori IA. Resta da vedere se gli investimenti e le partnership strategiche saranno sufficienti per scalare posizioni e conquistare una fetta maggiore di questo mercato in rapida crescita.

