Si les H100 et H200 ont fait les beaux jours de NVIDIA, la concurrente de toujours, AMD, entend disposer d'« accélérateurs d'IA » compétitifs.

AMD entend s'affirmer sur le marché des accélérateurs d'IA © Nerces pour Clubic
AMD entend s'affirmer sur le marché des accélérateurs d'IA © Nerces pour Clubic

Après l'incroyable carton réalisé par les H100 et H200, lesquels ont permis à NVIDIA de se hisser, même temporairement, en tête des capitalisations boursières mondiales, des produits concurrents arrivent.

Dès le mois de décembre 2023, AMD avait sonné la charge avec le MI300X, un accélérateur qui n'avait pas encore d'énormes prétentions, mais qui était là pour montrer qu'AMD ne restait pas les bras croisés.

Faire de l'ombre à NVIDIA ?

Présenté comme un début de concurrence aux H100/H200, le MI300X était en réalité trop tendre pour vraiment faire de l'ombre à NVIDIA. Il s'agissait toutefois d'un premier pas dans la bonne direction.

L'accélérateur MI325X et ses 256 Go d'HBM3E © AMD
L'accélérateur MI325X et ses 256 Go d'HBM3E © AMD

AMD entendant profiter de sa conférence annuelle Advance AI pour montrer au monde que la relève était plus qu'assurée, avec une présentation plus en détail de l'accélérateur AI de la gamme Instinct, le MI325X. Celui-ci avait été évoqué lors du Computex 2024, en juin dernier à Taipei, mais cette fois, la puce est prête. Elle est d'ailleurs d'autant plus prête que la production a déjà démarré et que les partenaires d'AMD préparent leurs solutions intégrées.

L'Instinct MI325X dans le détail et comparé au H200 de NVIDIA © AMD

De manière assez surprenante cependant, la présentation du MI325X a démarré avec une (relative) déconvenue. En effet, alors qu'AMD avait parlé d'une capacité mémoire de 288 Go de HBM3E, l'accélérateur ne sera finalement associé « qu'à » 256 Go, avec toujours la même bande passante. AMD s'en est sortie avec une pirouette en indiquant qu'en juin, il n'était question que de « jusqu'à 288 Go ».

Le MI325X et ses 8 XCD © AMD

Le MI325X n'est qu'une étape

Par rapport à l'accélérateur MI300X, l'amélioration du sous-système mémoire reste toutefois l'un des points d'évolution majeur. Nous passerons effectivement de 192 Go à, donc, 256 Go, et on parle de HBM3E en remplacement de la HBM3.

L'Instinct MI325X sans et avec son dissipateur © Nerces pour Clubic

Pour le reste, l'architecture utilisée par AMD reste identique, et nous sommes donc toujours en CDNA 3, le pendant computing du RDNA 3 que les joueurs connaissent maintenant très bien. Il est toutefois intéressant de noter qu'ayant pu affiner ses processus, AMD est en mesure de gonfler le TDP de sa solution, qui peut dorénavant atteindre 1 000 watts, contre 750 précédemment.

AMD compare le MI325X au H200 de NVIDIA © AMD

AMD mettait également en avant une bande passante impressionnante de 6 To/s, s'empressant d'augmenter encore cette valeur avec la plateforme MI325X dans sa globalité. Associant 8 GPU, elle autorise un total de 2 To de mémoire HBM3E, pour une bande passante combinée de 48 To/s. Dans de telles conditions, la solution H200 HGX de NVIDIA paraît sensiblement en retrait.

MI325X dispose effectivement de 1,8x la capacité du H200 HGX, pour une bande passante 1,3x supérieure et des performances en calcul FP8 et FP16 estimées à 1,3x plus importantes. AMD semble sûre de son fait, MI325X est devant le H200 de NVIDIA, et différents partenaires sont venus en attester sur scène, alors que la disponibilité de leurs solutions est donc prévue pour début 2025.

Mi-2025 arrivera le MI355X © AMD

CDNA 4 et CDNA Next

Forcément, AMD se contente de mentionner les accélérateurs d'IA actuellement disponibles chez NVIDIA, ajoutant avec une certaine malice qu'elle ne pouvait s'appuyer sur les solutions à venir de son concurrent.

L'Instinct MI355X promet une très grosse amélioration des performances © AMD

Il ne faut effectivement pas oublier que NVIDIA est sur le point de débarquer avec son architecture Blackwell. Celle-ci devrait animer les prochaines GeForce RTX série 5000, mais aussi, et surtout si l'on parle bénéfices pour NVIDIA, les futurs accélérateurs d'AI B200. Alors que le MI325X d'AMD devance légèrement le H200, on peut supposer qu'il sera largement distancé par ce B200.

Heureusement, AMD n'entend pas s'arrêter en si bon chemin, et sa feuille de route court jusqu'en 2026, avec d'abord, en milieu d'année prochaine, la sortie du MI355X, qui passera à une architecture CDNA 4 au lieu du CDNA 3. Pas de vraie révolution à la clé, mais des progrès sur toute la ligne : une gravure plus fine, davantage de compute tiles, la prise en charge des formats FP4 et FP6.

AMD Instinct : la feuille de route vers 2025-2026 © AMD

AMD n'entrait pas davantage dans les détails, mais précisait tout de même que le MI355X est donc prévu pour mi-2025, devançant de quelques mois la vraie révolution pour la firme, le MI400. Là, AMD est encore plus floue, mais évoque une architecture « next generation » fort justement baptisée CDNA Next.