Google sta intensificando i suoi sforzi per migliorare le prestazioni dei suoi chip di Intelligenza Artificiale (IA), in particolare quando utilizzati con PyTorch, uno degli strumenti più diffusi tra gli sviluppatori di modelli di IA. Questo progetto open source vede Google collaborare strettamente con Meta, il creatore e amministratore di PyTorch. L'obiettivo principale di questa partnership è fornire a Meta un accesso più ampio agli acceleratori di IA di Google, una mossa che potrebbe seriamente minacciare il dominio pluriennale di Nvidia nel mercato dei calcoli per l'IA.
Questa iniziativa ambiziosa rientra in un piano più ampio di Google per trasformare le sue Tensor Processing Unit (TPU) in un'alternativa valida e competitiva rispetto alle GPU di Nvidia, attualmente leader del mercato. Le vendite di TPU sono diventate un motore cruciale per la crescita dei ricavi di Google derivanti dai servizi cloud. Tuttavia, Google riconosce che per incentivare ulteriormente l'adozione dei suoi acceleratori di IA, non è sufficiente concentrarsi solo sull'hardware.
La nuova iniziativa di Google, denominata TorchTPU, mira a superare un ostacolo fondamentale che ha finora rallentato l'adozione dei chip TPU: garantire la piena compatibilità e la facilità d'uso per gli sviluppatori che utilizzano PyTorch. Google sta anche valutando la possibilità di rendere open source alcune parti del suo software, al fine di accelerarne ulteriormente l'adozione. Rispetto ai precedenti tentativi di supportare PyTorch sulle TPU, Google sta dedicando a TorchTPU una maggiore attenzione organizzativa, risorse più consistenti e un'importanza strategica superiore, poiché le aziende che desiderano utilizzare questi chip considerano lo stack software come il collo di bottiglia tecnologico.
PyTorch, un progetto open source sostenuto attivamente da Meta, è uno degli strumenti più utilizzati dagli sviluppatori che creano modelli di IA. Nella Silicon Valley, sono pochi gli sviluppatori che scrivono ogni singola riga di codice che verrà effettivamente eseguita sui chip di Nvidia, AMD o Google. Al contrario, gli sviluppatori si affidano a strumenti come PyTorch, che rappresenta una raccolta di librerie di codice e framework pre-scritti. Il dominio di Nvidia è garantito non solo dai suoi acceleratori di IA, ma anche dall'ecosistema software CUDA, che è profondamente integrato in PyTorch ed è diventato il metodo predefinito per l'addestramento e l'esecuzione di modelli di IA di grandi dimensioni. Gli ingegneri di Nvidia hanno compiuto sforzi considerevoli per garantire che il software sviluppato con PyTorch funzioni nel modo più rapido ed efficiente possibile sui chip dell'azienda.
Gran parte del software di Google per l'IA è basato sulla piattaforma Jax, il che scoraggia i clienti che utilizzano PyTorch per lo sviluppo. Pertanto, per Google è diventato particolarmente importante garantire il massimo supporto per PyTorch sui suoi acceleratori di IA. In caso di successo, TorchTPU potrebbe ridurre significativamente i costi di transizione per le aziende che desiderano trovare un'alternativa alle GPU di Nvidia.
Per accelerare lo sviluppo, Google sta collaborando a stretto contatto con Meta, il creatore e amministratore di PyTorch. Questa partnership potrebbe fornire a Meta l'accesso a un numero maggiore di chip di IA di Google. Meta è direttamente interessata allo sviluppo di TorchTPU, in quanto ciò consentirebbe all'azienda di ridurre i costi di output e diversificare la propria infrastruttura di IA, rinunciando all'uso delle GPU di Nvidia.
Come primo passo, Meta ha proposto di utilizzare i servizi gestiti di Google, nell'ambito dei quali i clienti, come Meta, avrebbero accesso agli acceleratori di IA di Google e Google ne garantirebbe il supporto operativo. Quest'anno, Google ha già iniziato a vendere le TPU direttamente ai centri di elaborazione dati dei propri clienti. L'azienda ha bisogno di tale infrastruttura sia per lanciare i propri prodotti di IA, tra cui il chatbot Gemini e la ricerca basata sull'IA, sia per fornire l'accesso ai clienti di Google Cloud.
"Stiamo assistendo a un'enorme e crescente domanda sia della nostra infrastruttura TPU che dell'infrastruttura GPU", ha affermato un rappresentante di Google. "Il nostro obiettivo è fornire agli sviluppatori la flessibilità e la scalabilità necessarie, indipendentemente dall'hardware scelto".


