Alors que la course à l'intelligence artificielle (IA) ne cesse de s'intensifier avec des centres de données toujours plus énergivores, les objectifs environnementaux de l'Union européenne semblent plus que jamais inatteignables.

Exemple d'un datacenter utilisé pour l'IA © Google
Exemple d'un datacenter utilisé pour l'IA © Google

Car les grands modèles de langage requièrent d'immenses capacités de calcul. L'IA peut ainsi consommer 120 kilowatts d'énergie dans un seul mètre carré d'un centre de données, ce qui équivaut à la consommation d'énergie et à la dissipation de chaleur de 15 à 25 maisons, selon Andrey Korolenko, directeur des produits et de l'infrastructure chez Nebius, spécialiste du cloud.

L'arrivée de nouveaux processeurs, comme le Blackwell GB200 de NVIDIA, va encore accentuer le phénomène. Or, l'Union européenne (UE) s'est fixé pour objectif de réduire de 11,7 % sa consommation d'énergie d'ici à 2030.

Retour en arrière ?

Plus les puces sont puissantes, plus elles requièrent des capacités de refroidissement importantes. Dans ce contexte, c'est très souvent le refroidissement par eau qui est privilégié. Les fournisseurs d'IA, principalement les géants américains, font pression sur les opérateurs européens pour qu'ils abaissent la température de l'eau utilisée dans leurs installations pour la faire passer de 30-32° Celsius à 20-24° Celsius.

Outre l'utilisation d'eau à outrance, cette méthode nécessite encore plus d'énergie pour refroidir les serveurs. « Le problème que nous avons avec les fabricants de puces, c'est que l'IA est désormais une course à l'espace menée par le marché américain, où les droits fonciers, l'accès à l'énergie et la durabilité sont relativement peu importants, et où la domination du marché est essentielle », dénonce Michael Winterson, président de l'Association européenne des centres de données (EUDCA), dans un entretien accordé à CNBC.

Selon lui, l'abaissement des températures de l'eau finira par « nous ramener fondamentalement à la situation non viable dans laquelle nous nous trouvions il y a 25 ans ». En 2018, l'UE prédisait que la consommation d'énergie des centres de données pourrait augmenter de 28 % d'ici à 2030. L'avènement de l'IA devrait multiplier ce chiffre par deux ou trois dans certains pays.

Les puces d'IA de NVIDIA. © NVIDIA
Les puces d'IA de NVIDIA. © NVIDIA

À la recherche de solutions

De leur côté, les entreprises cherchent bien entendu un équilibre entre performance et efficacité énergétique. Les nouveaux centres de données sont, par exemple, dotés de technologies de refroidissement liquide bien plus optimisées, requérant moins de dépenses énergétiques.

Mais malgré tout, la hausse de la demande est telle que la consommation d'énergie augmente indubitablement. Et la concurrence entre géants technologiques n'arrange pas la situation. Les responsables européens cherchent une solution en s'entretenant avec les principaux intéressés, notamment NVIDIA, mais pour l'heure, aucune solution concrète ne semble émerger.

Pour rappel, aussi bien Microsoft que Google ont vu leurs émissions de CO2 exploser en raison du boom de l'IA générative.

Source : CNBC