Microsoft a officialisé les Cobalt 100 et Maia 100, des CPU ARM à 128 cœurs et accélérateurs à 105 milliards de transistors respectivement. Ils soutiendront les services cloud de l’entreprise dans un avenir très proche.
La rumeur selon laquelle Microsoft travaillait sur son propre processeur pour l’intelligence artificielle, en partie pour limiter au maximum le recours à des intermédiaires, courait depuis plusieurs mois. La firme de Redmond a confirmé cette allégation lors de sa conférence annuelle Microsoft Ignite.
D’ailleurs, ce n’est pas un seul processeur qui a été annoncé, mais bien deux : les Azure Maia 100 et Cobalt 100.
Des puces pour les centres de données
Tempérez tout de suite vos espérances, vous ne pourrez pas installer ces puces dans votre PC domestique pour remplacer votre Intel Core ou votre AMD Ryzen. En effet, ces Maia 100 AI Accelerator et Cobalt 100 sont conçus pour les centres de données.
Plus précisément, Microsoft présente le Maia 100, premier représentant de la famille Azure Maia, comme un accélérateur d’IA spécialisé dans les charges de travail sur les modèles OpenAI, GitHub ou Copilot.
Le Cobalt 100, premier représentant de la branche Azure Cobalt, est un CPU (central processing unit) sous architecture ARM pensé pour supporter les charges de travail courantes pour le cloud de Microsoft. La société vante principalement son efficacité énergétique.
Pour entrer davantage dans les détails techniques, Maia 100 bénéficie d’une gravure en 5 nanomètres et est constitué de 105 milliards de transistors. C’est donc une puce assez massive, puisqu'à titre de comparaison, le H100 de NVIDIA, gravé en 4 nanomètres, compte 80 milliards de transistors. Avec ses 146 milliards de transistors, le MI300X d’AMD (gravé en 5 nanomètres par TSMC) conserve en revanche une belle avance en la matière.
Concernant le CPU Cobalt 100, il s'agit d'un processeur 64 bits à 128 cœurs. Microsoft prétend qu’il améliore de 40 % les performances par rapport aux puces Azure ARM actuelles dans des applications comme Microsoft Teams et Azure SQL. Il faudra attendre des benchmarks plus détaillés pour jauger des capacités des nouvelles puces de Microsoft.
L’importance du refroidissement liquide
Au sujet de l’infrastructure, Microsoft doit réorganiser les baies des serveurs. Les ingénieurs de la société en profitent pour mettre l’accent sur le refroidissement liquide. Et pour cause, Microsoft explique que les tâches d'intelligence artificielle s'accompagnent de calculs intensifs très énergivores. En conséquence, ils rendent les méthodes traditionnelles de refroidissement par air inadaptées, et le refroidissement liquide représente donc la solution la mieux adaptée pour garantir un fonctionnement efficace et sans surchauffe. Vous pouvez voir un rack sur mesure abritant des puces Maia 100 ci-dessous.
Le déploiement est prévu début 2024, pour Microsoft Copilot et Azure OpenAI Service dans un premier temps.
Pour être complets, précisons que Microsoft ne délaisse pas NVIDIA et AMD pour autant. La société indique qu’elle veut surtout offrir davantage de choix à ses clients. En ce sens, elle proposera prochainement de nouvelles machines virtuelles soutenues par des GPU H100 (les NC H100 v5) et prévoit d’adopter également les nouveaux H200 de NVIDIA. Des machines virtuelles ND MI300 avec accélérateurs MI300X d’AMD sont aussi en préparation.
Sources : Microsoft (1), Microsoft (2)