
Nvidia-Blackwell: presentata la prossima generazione di acceleratori AI

Nvidia è il leader indiscusso del mercato degli acceleratori AI. L'azienda vuole estendere ulteriormente questo primato e sta lanciando la nuova generazione: la piattaforma Blackwell.
Il CEO di Nvidia Jensen Huang ha presentato la piattaforma Blackwell alla conferenza per sviluppatori GTC dell'azienda a San Jose. La piattaforma comprende diversi prodotti, dai chip come il B100 al DGX GB200 SuperPOD. Questi saranno lanciati sul mercato nel corso dell'anno. Si dice che i nuovi chip siano fino a 25 volte più efficienti dal punto di vista energetico rispetto ai loro predecessori.
La piattaforma Blackwell si basa sull'ultima architettura GPU di Nvidia. Il suo nome è Blackwell, in onore del dottor David Harold Blackwell, un matematico americano. Con i nuovi prodotti, il gigante dei chip vuole sfruttare il successo del chip Hopper GH100, che ha reso l'AI (intelligenza artificiale) un settore in piena espansione e Nvidia la terza azienda di maggior valore al mondo.
A proposito di valore: Nvidia non ha comunicato i prezzi dei nuovi chip. Tuttavia, visto il boom dell'IA in corso, è probabile che il produttore li faccia placcare in oro.
Poco dati sul chip
Una nuova caratteristica di Blackwell è che una GPU è composta da due chip accoppiati tra loro. Sono collegati tramite un'interfaccia da 10 terabyte al secondo (5 terabyte al secondo per direzione). L'acceleratore ha un totale di 208 miliardi di transistor. Questo corrisponde a un aumento del 30 percento rispetto al suo predecessore. Sono prodotti presso TSMC con un processo noto come 4NP. Si tratta di un ulteriore sviluppo della produzione a 4 nanometri. La larghezza della struttura rimane quindi la stessa della generazione precedente. Nvidia utilizza la tecnologia 4NP. Nvidia utilizza il veloce tipo di memoria HBM3e, con otto stack da 24 gigabyte per un totale di 192 gigabyte. La memoria raggiunge una velocità di trasferimento di 8 terabyte al secondo.
Non ci sono state altre informazioni sulla struttura interna durante la presentazione. Nel complesso, si dice che l'acceleratore BG200 sia 30 volte più veloce e 25 volte più efficiente dell'H100, grazie alla personalizzazione del calcolo e alla precisione dei dati. Huang cita come termine di paragone l'addestramento del chatbot ChatGPT. Questo è stato addestrato in tre mesi con 8000 chip Hopper e una potenza di 15 megawatt. Con Blackwell sono stati necessari solo 2.000 chip e 4 megawatt nello stesso tempo.
Più precisione per una maggiore efficienza
Il formato in virgola mobile a 4 bit di Blackwell (FP4) consente un formato con soli 16 stati. Si tratta di una precisione inferiore rispetto ai formati in virgola mobile di numero superiore, come il formato FP16 utilizzato da Hopper. Secondo il produttore, tuttavia, è sufficiente e permette agli acceleratori di gestire una quantità di dati notevolmente inferiore con solo una leggera perdita di precisione. Oltre alla velocità di elaborazione, questo raddoppia anche le dimensioni dei modelli possibili. Hopper ha già sfruttato la velocità di elaborazione di Hopper. Hopper ha già sfruttato il fatto che i trasformatori non devono elaborare tutti i pesi e i parametri con grande precisione. Il Transformer Engine, utilizzato anche nella nuova generazione di chip, mescola il preciso formato in virgola mobile a 16 bit (FP16) con il meno preciso FP8 a 8 bit. Con Blackwell, Nvidia sta facendo un ulteriore passo avanti.


Tecnologia e società mi affascinano. Combinarle entrambe e osservarle da punti di vista differenti sono la mia passione.