Google e Meta sfidano Nvidia nel campo dell'IA: Una nuova era per i chip

Google e Meta collaborano per ottimizzare PyTorch sui chip TPU, puntando a ridurre la dipendenza da Nvidia nel settore dell'intelligenza artificiale

Google e Meta sfidano Nvidia nel campo dell'IA: Una nuova era per i chip

Google sta intensificando i suoi sforzi per migliorare le prestazioni dei suoi chip di Intelligenza Artificiale (IA), in particolare quando utilizzati con PyTorch, uno degli strumenti più diffusi tra gli sviluppatori di modelli di IA. Questo progetto open source vede Google collaborare strettamente con Meta, il creatore e amministratore di PyTorch. L'obiettivo principale di questa partnership è fornire a Meta un accesso più ampio agli acceleratori di IA di Google, una mossa che potrebbe seriamente minacciare il dominio pluriennale di Nvidia nel mercato dei calcoli per l'IA.

Questa iniziativa ambiziosa rientra in un piano più ampio di Google per trasformare le sue Tensor Processing Unit (TPU) in un'alternativa valida e competitiva rispetto alle GPU di Nvidia, attualmente leader del mercato. Le vendite di TPU sono diventate un motore cruciale per la crescita dei ricavi di Google derivanti dai servizi cloud. Tuttavia, Google riconosce che per incentivare ulteriormente l'adozione dei suoi acceleratori di IA, non è sufficiente concentrarsi solo sull'hardware.

La nuova iniziativa di Google, denominata TorchTPU, mira a superare un ostacolo fondamentale che ha finora rallentato l'adozione dei chip TPU: garantire la piena compatibilità e la facilità d'uso per gli sviluppatori che utilizzano PyTorch. Google sta anche valutando la possibilità di rendere open source alcune parti del suo software, al fine di accelerarne ulteriormente l'adozione. Rispetto ai precedenti tentativi di supportare PyTorch sulle TPU, Google sta dedicando a TorchTPU una maggiore attenzione organizzativa, risorse più consistenti e un'importanza strategica superiore, poiché le aziende che desiderano utilizzare questi chip considerano lo stack software come il collo di bottiglia tecnologico.

PyTorch, un progetto open source sostenuto attivamente da Meta, è uno degli strumenti più utilizzati dagli sviluppatori che creano modelli di IA. Nella Silicon Valley, sono pochi gli sviluppatori che scrivono ogni singola riga di codice che verrà effettivamente eseguita sui chip di Nvidia, AMD o Google. Al contrario, gli sviluppatori si affidano a strumenti come PyTorch, che rappresenta una raccolta di librerie di codice e framework pre-scritti. Il dominio di Nvidia è garantito non solo dai suoi acceleratori di IA, ma anche dall'ecosistema software CUDA, che è profondamente integrato in PyTorch ed è diventato il metodo predefinito per l'addestramento e l'esecuzione di modelli di IA di grandi dimensioni. Gli ingegneri di Nvidia hanno compiuto sforzi considerevoli per garantire che il software sviluppato con PyTorch funzioni nel modo più rapido ed efficiente possibile sui chip dell'azienda.

Gran parte del software di Google per l'IA è basato sulla piattaforma Jax, il che scoraggia i clienti che utilizzano PyTorch per lo sviluppo. Pertanto, per Google è diventato particolarmente importante garantire il massimo supporto per PyTorch sui suoi acceleratori di IA. In caso di successo, TorchTPU potrebbe ridurre significativamente i costi di transizione per le aziende che desiderano trovare un'alternativa alle GPU di Nvidia.

Per accelerare lo sviluppo, Google sta collaborando a stretto contatto con Meta, il creatore e amministratore di PyTorch. Questa partnership potrebbe fornire a Meta l'accesso a un numero maggiore di chip di IA di Google. Meta è direttamente interessata allo sviluppo di TorchTPU, in quanto ciò consentirebbe all'azienda di ridurre i costi di output e diversificare la propria infrastruttura di IA, rinunciando all'uso delle GPU di Nvidia.

Come primo passo, Meta ha proposto di utilizzare i servizi gestiti di Google, nell'ambito dei quali i clienti, come Meta, avrebbero accesso agli acceleratori di IA di Google e Google ne garantirebbe il supporto operativo. Quest'anno, Google ha già iniziato a vendere le TPU direttamente ai centri di elaborazione dati dei propri clienti. L'azienda ha bisogno di tale infrastruttura sia per lanciare i propri prodotti di IA, tra cui il chatbot Gemini e la ricerca basata sull'IA, sia per fornire l'accesso ai clienti di Google Cloud.

"Stiamo assistendo a un'enorme e crescente domanda sia della nostra infrastruttura TPU che dell'infrastruttura GPU", ha affermato un rappresentante di Google. "Il nostro obiettivo è fornire agli sviluppatori la flessibilità e la scalabilità necessarie, indipendentemente dall'hardware scelto".

Pubblicato Venerdì, 19 Dicembre 2025 a cura di Anna S. per Infogioco.it

Ultima revisione: Venerdì, 19 Dicembre 2025

Anna S.

Anna S.

Anna è una giornalista dinamica e carismatica, con una passione travolgente per il mondo dell'informatica e le innovazioni tecnologiche. Fin da giovane, ha sempre nutrito una curiosità insaziabile per come la tecnologia possa trasformare le vite delle persone. La sua carriera è caratterizzata da un costante impegno nell'esplorare le ultime novità in campo tecnologico e nel raccontare storie che ispirano e informano il pubblico.


Consulta tutti gli articoli di Anna S.

Footer
Articoli correlati
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
Contenuto promozionale
WorldMatch - Gambling software solutions
Infogioco.it - Sconti