Nvidia sta integrando l'intelligenza artificiale (AI) in diverse fasi del processo di progettazione dei suoi chip, come rivelato dal capo scienziato Bill Dally durante una conversazione con Jeff Dean, ricercatore di Google, alla conferenza GTC. L'azienda sfrutta l'AI per esplorare soluzioni di progettazione, gestire librerie di celle standard, correggere errori e validare i progetti. Tuttavia, Dally ha precisato che la progettazione completamente automatizzata dei chip è ancora un obiettivo lontano.
Un esempio significativo è lo strumento NB-Cell di Nvidia. In precedenza, il trasferimento della libreria di celle standard dell'azienda a un nuovo processo produttivo richiedeva a un team di otto persone circa 10 mesi di lavoro. Ora, uno strumento di AI basato sull'apprendimento per rinforzo esegue lo stesso compito in una sola notte su una singola GPU. Le celle risultanti, per dimensioni, consumo energetico e latenza, sono paragonabili o addirittura superiori a quelle progettate dagli esseri umani.
Dally ha spiegato: "Cerchiamo di utilizzare l'AI il più possibile nel processo di progettazione. Ad esempio, ogni volta che passiamo a un nuovo processo produttivo, dobbiamo trasferirvi la nostra libreria di celle standard, che conta tra 2500 e 3000 celle. Prima, questo richiedeva un team di otto persone che lavoravano per circa 10 mesi, ovvero 80 mesi-uomo. Poi, abbiamo sviluppato un programma basato sull'apprendimento per rinforzo chiamato NB-Cell (credo che ora siamo alla versione NB-Cell 2 o 3). Questo strumento svolge il compito in una sola notte su una singola GPU. I risultati, in termini di dimensioni delle celle, dissipazione di potenza e latenza, sono pari o superiori a quelli ottenuti con la progettazione umana. Si tratta di un enorme aumento di produttività che elimina gli ostacoli al passaggio a nuovi processi produttivi, perché ora possiamo trasferire le librerie di celle molto rapidamente."
Dally ha anche menzionato un altro strumento interno, chiamato Prefix RL, progettato per risolvere il problema, da tempo studiato, del posizionamento di elementi predittivi in una catena di riporto anticipato. Secondo Dally, questo sistema genera schemi che "nessun essere umano sarebbe in grado di concepire", migliorando al contempo le metriche chiave del 20-30% rispetto alle soluzioni create manualmente. Questo dimostra che Nvidia utilizza l'AI non solo per risparmiare tempo agli ingegneri, ma anche per trovare soluzioni che vanno oltre l'intuizione umana.
In termini più ampi, Nvidia utilizza modelli linguistici interni chiamati Chip Nemo e Bug Nemo. Questi modelli vengono continuamente perfezionati utilizzando materiali proprietari di Nvidia, tra cui codice RTL e documenti di architettura per le GPU sviluppate nel corso degli anni. Uno dei vantaggi pratici, secondo Dally, è che i progettisti meno esperti possono consultare il modello invece di chiedere continuamente ai progettisti senior come funziona un determinato blocco. Inoltre, il sistema è in grado di riepilogare i rapporti sugli errori e di assegnarli ai moduli o agli ingegneri appropriati.
L'adozione dell'AI da parte di Nvidia nel processo di progettazione dei chip non solo accelera i tempi di sviluppo, ma permette anche di esplorare soluzioni innovative che sarebbero difficili o impossibili da trovare con i metodi tradizionali. Questo approccio potrebbe portare a chip più efficienti, potenti e capaci di affrontare le sfide del futuro nel campo dell'informatica e dell'intelligenza artificiale. Nvidia si posiziona così all'avanguardia dell'innovazione tecnologica, dimostrando come l'AI possa essere un motore di progresso non solo nel software, ma anche nell'hardware.

