B200 et GB200 sont présentés par NVIDIA qui les décrit comme « les processeurs les plus grands possibles avec la technologie actuelle ».
Le processeur H100 Hopper a fait de NVIDIA un géant de l'intelligence artificielle dont la capitalisation boursière est au niveau de celles de sociétés aussi colossales que Facebook (Meta) ou Google (Alphabet).
Pour Jensen Huang, le charismatique patron de NVIDIA, il ne s'agissait toutefois que d'un galop d'essai. La sortie prochaine des GPU Blackwell devrait permettre d'enfoncer le clou.
208 milliards de transistors
À l'occasion de la conférence GTC 2024, Jensen Huang a effectivement pris la parole pour dévoiler les B200 et GB200, deux processeurs sur architecture Blackwell ayant pour objectif de doper les performances IA.
La puce B200 associe deux cœurs de 104 milliards de transistors chacun © NVIDIA
NVIDIA n'y va pas par quatre chemins en expliquant que les remarquables performances du H100 Hopper seront multipliées par 5 dès lors que l'on parle d'intelligence artificielle. Le processeur B200 est d'ailleurs présenté comme le « plus grand processeur physiquement fabricable avec les technologies de gravure actuelles ».
Produit grâce au procédé N4P de TSMC, ce processeur est donc gravé en 4 nm, nœud indispensable pour atteindre un tel nombre de transistors alors que le H100 était déjà une puce étendue (814 mm²), mais devait se contenter de 80 milliards de transistors.
20 PFLOPs de puissance brute
La puce B200 déborde donc très largement ce nombre de transistors avec un total de 208 milliards répartis sur deux cœurs de 104 milliards chacun. Deux cœurs ? Oui, NVIDIA a ici opté pour la conception chiplet que l'on a souvent retrouvée chez sa principale concurrente, AMD.
Au sein de la puce B200, une interconnexion à 10 TB/s assure la plus efficace des communications et évite tout retard d'information. Chacun des deux chiplets Blackwell dispose aussi d'un bus mémoire de 4096-bit ainsi que de 96 Go de mémoire HBM3E répartis en quatre piles de 24 Go chacun. Au total, on parle donc de 192 Go de HBM3E pour la puce B200 complète. Une puce qui peut compter sur une bande passante mémoire incroyable de 8 To/s.
Nous le disions en début d'actualité, NVIDIA a également présenté le GB200, une « super-puce » qui associe deux GPU B200 et un CPU NVIDIA Grace afin d'offrir des performances encore supérieures. L'objectif est de concurrencer les puces Intel Xeon et AMD EPYC grâce, notamment, au lien d'interconnexion NVLink, théoriquement ce qu'il y a de plus efficace. NVIDIA parle de 20 PFLOPs de puissance brute pour chaque GPU B200.
Un chiffre que la firme américaine complète en précisant que c'est 2,5x les performances de la génération précédente, Hopper, sachant qu'en FP4, on est même à 5x les performances obtenues par cette génération complètement ringardisée par Blackwell. Terminons en évoquant la consommation de telles puces car le B200 est affiché à 1000 watts par NVIDIA alors que le GB200 vient battre tous les records, à 2700 watts.
Source : TechPowerUp, The Verge