Le patron d'OVHcloud, Octave Klaba, s'est lancé mardi dans une explication des enjeux techniques et financiers derrière les futurs centres de données français, annoncés à grands coups de milliards d'euros.

Les data centers coûtent cher, très cher, et Octave Klaba explique pourquoi © kittirat roekburi / Shutterstock
Les data centers coûtent cher, très cher, et Octave Klaba explique pourquoi © kittirat roekburi / Shutterstock

« Depuis quelques jours, on entend beaucoup parler de projets de construction de "data centers 1 GW" pour l'intelligence artificielle en France », écrit Octave Klaba dans une publication LinkedIn. Et c'est peu de le dire ! Plusieurs projets pharaoniques, dont celui à 52 milliards d'euros de l'entreprise marseillaise Sesterce, ont été annoncés depuis lundi et le début du Sommet pour l'action sur l'IA.

Le président-fondateur d'OVHcloud s'est livré à un brillant exercice de vulgarisation des concepts techniques et des investissements nécessaires pour les futurs data centers dédiés à l'intelligence artificielle. Du GPU au watercooling, en passant par les modèles de langage (LLM), il dévoile les dessous d'une révolution technologique qui nécessite des infrastructures titanesques, et beaucoup de moyens.

Les milliards d'euros annoncés pour alimenter l'intelligence artificielle sont bien nécessaires

Tout commence par une équation somme toute simple, mais assez impressionnante. Pour faire tourner 1 000 GPU, ces fameux processeurs graphiques essentiels au fonctionnement de l'IA, il faut investir 50 millions d'euros et disposer d'une puissance électrique d'un mégawatt.

« 80% de ces montants servent à acheter les GPU, 20% pour construire un data center », précise le dirigeant au sujet des montants engagés. À plus grande échelle, une enveloppe de 50 milliards permettra de financer un data center doté d'un million de GPUs, qui nécessitera une puissance électrique d'un gigawatt pour fonctionner.

Montant investiGPUs financés Puissance électrique
50 millions d'euros1 0001 mégawatt
500 millions d'euros10 00010 mégawatts
5 milliards d'euros100 000100 mégawatts
50 milliards d'euros1 million1 gigawatt

Au bout du compte, ces infrastructures XXL servent deux usages distincts des modèles de langage (LLM) comme GPT-4, Claude 3 et autres. Il y a d'abord l'entraînement, qui requiert une puissance de calcul massive pour créer les modèles d'IA, et l'inférence, qui permet leur utilisation quotidienne par les clients. L'entraînement nécessite des installations beaucoup plus sophistiquées que l'inférence.

« Pour l'usage d'inférence, il n'y a pas besoin de data centers aussi sophistiqués », souligne Octave Klaba. La nouvelle génération de GPU, appelée superchip, révolutionne néanmoins l'architecture des data centers. En regroupant une dizaine de GPU sur une seule carte, elle résout le problème de la distance entre processeurs qui limitait jusqu'alors les performances.

Le watercooling deviendra la norme des data centers géants

Pour donner une chance aux centres de données qui vont pousser un peu partout en France, le watercooling (c'est-à-dire le refroidissement liquide) devient incontournable face aux limites du refroidissement par air. Comme l'explique Octave Klaba, les baies (ou racks) traditionnelles, qui font la taille d'une petite armoire, sont aujourd'hui limitées à 20 kilowatts en cas de refroidissement par air frais, air balancé dans les allées chaudes.

Dans certains data centers, comme le D4 d'Infomaniak, l'air circule sous les racks et les allées © Alexandre Boero / Clubic
Dans certains data centers, comme le D4 d'Infomaniak, l'air circule sous les racks et les allées © Alexandre Boero / Clubic

Si l'on veut laisser la place à des installations pouvant atteindre 120 voire 240 kilowatts, il faudra des systèmes plus sophistiqués pour évacuer la chaleur. « Il faut basculer en watercooling », explique le fondateur d'OVHcloud. Et là, on parle donc bien de data centers d'un nouveau genre, à la puissance électrique supérieure à 1 GW, qui restent à construire.

OVHcloud exploite des data centers qui fonctionnent en watercooling depuis deux décennies. L'entreprise revendique des solutions qui seraient 20 à 40 fois moins coûteuses que la concurrence, et qui refroidissent déjà plus de 500 000 serveurs dans plus de 40 data centers à travers le monde.

Quid enfin de l'usage d'inférence, qui se destine aux clients ? Là, les besoins sont plus modestes. « Un modèle LLM a besoin d'un système de GPU qui consomme entre 100 W et 10 KW, rarement 20KW, équivalent de 1 à 16 GPU » précise Octave Klaba. C'est cette flexibilité qui pourrait permettre d'envisager un maillage territorial avec des data centers moins sophistiqués dédiés à l'inférence, idéalement un par pays, pour optimiser la latence et assurer une haute disponibilité aux utilisateurs.