Un premier processeur ARM pour data center signé par le géant du GPU… de quoi faire de l'ombre aux solutions AMD / Intel ?
Alors que le rachat d'ARM par NVIDIA n'est toujours pas entériné, le géant américain des GPU a fait une annonce troublante puisqu'il se focalise sur la distribution d'un processeur. Cependant, il reste question d'une puce ultra spécialisée qui ne semble pas devoir concurrencer tout de suite notre duo AMD / Intel.
Algorithmes d'intelligence artificielle
NVIDIA a baptisé sa nouvelle puce « Grace » en hommage à Grace Hopper. Informaticienne américaine de renom, elle s'est notamment illustrée au cours des années 50 en concevant le premier compilateur (1951) et le langage COBOL (1959).
D'emblée, soulignons que Grace ne se destine pas du tout au marché grand public : il s'agit d'un processeur visant les centres de données. L'objectif affiché de NVIDIA est d'accélérer notablement les calculs algorithmiques liés à l'intelligence artificielle. Jensen Huang, fondateur et P.-D.G. de NVIDIA, n'hésite pas à évoquer « dix fois les performances des serveurs actuels les plus puissants ».
De fait, NVIDIA insiste bien sur le fait que Grace ne se place pas comme un concurrent direct des solutions x86 bien qu'elle publie tout de même un petit résultat sous SPECrate2017_int_base afin de souligner que ses cœurs sont capables de faire plus ou moins jeu égal avec certains CPU EPYC 64 cœurs signés AMD.
Une bande passante jusqu'à 30 fois supérieure
En premier lieu, NVIDIA préfère cependant insister sur l'équilibre qu'elle est parvenue à atteindre entre consommation électrique et performances : Grace serait bien plus efficace que les solutions concurrentes. Ce n'est toutefois pas le seul élément mis en avant par le constructeur américain.
Pour booster les performances de sa solution Grace, NVIDIA a notamment cherché à éliminer tous les goulets d'étranglement. Le constructeur a par exemple évoqué une limite de 64 Go/s - tout de même ! - entre la mémoire système et les GPU. Pour y remédier, NVIDIA a employé de la mémoire LPDDR5x et ses inter-connecteurs NVLink : il avance une bande passante maintenant jusqu'à 30 fois supérieure et arrondie à 2 000 Go/s.
Ces mêmes inter-connecteurs NVLink ont un rôle à jouer dans la liaison entre les CPU et les GPU : ils doivent permettre d'aboutir à une bande passante allant cette fois jusqu'à 900 Go/s. Autant dire que, là encore, les progrès sont énormes : 14 fois ce qui se fait à l'heure actuelle. Déjà mentionnée, l'utilisation de LPDDR5x offre un autre avantage : « Deux fois plus de bande passante pour une consommation électrique 10 fois moindre par rapport à la de la DDR4 ».
Se passer d'AMD / Intel et du x86
Nous l'avons dit, il n'est pas encore question de vraiment concurrencer les deux poids lourds du secteur du processeur que sont AMD et Intel. Depuis la « nuit des temps », NVIDIA est contrainte de travailler avec les deux sociétés, mais elle ne cache pas son envie, d'une certaine manière, de « couper les ponts ».
Les architectures ARM sont déjà exploitées depuis belle lurette par NVIDIA et en particulier sur ses SoC Tegra ou ses systèmes de conduite autonome Orin. Pour Jensen Huang, la cause est entendue : les architectures x86 ne sont plus dans l'air du temps, elles ne suffisent tout simplement plus pour traiter les quantités d'informations et les masses de calculs nécessaires aux solutions d'intelligence artificielle les plus modernes.
La montée en puissance des GPU de la marque est un premier signal, mais maintenant NVIDIA veut tout simplement se débarrasser de l'architecture x86. Les dernières feuilles de route publiées par la société américaine sont d'ailleurs on ne peut plus claires. On y voit maintenant trois segments : les GPU bien sûr avec Ampère, les DPU avec Bluefield, et les CPU donc avec Grace et ses évolutions à venir.
Déployé en Suisse et aux États-Unis
Avant même son annonce, Grace a trouvé preneur : le supercalculateur ALPS conçu par HPE pour le Swiss National Supercomputing Center (CSCS). Côté puissance, NVIDIA n'y va d'ailleurs pas avec le dos de la cuillère en expliquant qu'il sera capable de 20 exaflops de calculs IA soit « 10 fois plus que le meilleur des supercalculateurs actuels ».
Dans un second temps, il est question d'équiper le Laboratoire national de Los Alamos dans le Nouveau-Mexique, aux États-Unis. Un centre de recherche qui s'est évidemment fait un nom avec le Projet Manhattan au cours de la Seconde Guerre mondiale. Il est question, dans un cas comme dans l'autre et en plus de Grace, d'utiliser la prochaine génération de GPU de la marque. Les systèmes ne devraient donc pas être opérationnels avant 2023.
Source : TechPowerUp