Amazon Web Services veut à la fois répondre à la demande croissante d'intelligence artificielle et mieux absorber son efficacité énergétique. Pour cela, le géant va intégrer des nouveaux composants à ses data centers, partout dans le monde.
Pour répondre aux besoins croissants de l'intelligence artificielle générative, Amazon Web Services (AWS) a développé de nouveaux composants spécifiquement conçus pour ses data centers. L'enjeu est de fournir une infrastructure capable de supporter les applications IA toujours plus puissantes et énergivores. L'entreprise en a dit plus à l'occasion de son événement annuel, AWS re:Invent.
AWS (re)pense l'infrastructure de ses data centers pour l'IA
Les nouvelles architectures d'AWS font office de grande transformation, c'est peu de le dire. Le groupe a développé des composants électriques et mécaniques simplifiés, qui permettent une disponibilité record de 99,9999%. Cette fiabilité exceptionnelle sur le papier s'accompagne d'une réduction drastique des points de défaillance potentiels, avec 89% de racks moins exposés aux risques électriques.
Tenez, pour mettre ces chiffres en perspective, cela signifie qu'un centre de données sur un million serait potentiellement impacté par une panne électrique, contre près de 9 sur 10 précédemment.
Le refroidissement liquide devient, lui, la nouvelle norme technique. AWS a conçu des solutions mécaniques permettant de rafraîchir efficacement les puces de calcul haute densité. L'approche, multimodale, intègre simultanément des systèmes de refroidissement à air et liquide, pour optimiser performances et consommation énergétique. Concrètement, cela permet de supporter des supercalculateurs comme le NVIDIA GB200 NVL72, capable de traiter des modèles d'IA massive avec une efficacité remarquable.
L'IA pour aider à positionner plus efficacement les serveurs des centres de données
Pour ce qui est de la prise en charge des charges de travail d'IA à haute densité (pardon pour la répétition), l'optimisation se fait désormais grâce à des algorithmes prédictifs. En fait, AWS utilise l'IA pour déterminer le positionnement le plus efficace des serveurs, pour réduire les pertes d'énergie. L'entreprise a mesuré une augmentation de 12% de la puissance de calcul par site, tout en diminuant le nombre de data centers nécessaires. En pratique, cela signifie pouvoir multiplier par 6 la densité énergétique des racks dans les deux prochaines années, et anticiper une nouvelle multiplication par 3 par la suite.
L'engagement écologique prend aussi tout son sens. AWS annonce une réduction de 46% de la consommation énergétique mécanique et de 35% de l'empreinte carbone dans la production de béton. Les générateurs fonctionneront, eux, au diesel renouvelable désormais, ce qui devrait permettre d'enregistrer jusqu'à 90% de réduction des émissions de gaz à effet de serre.
Pour donner un ordre de grandeur, l'infrastructure AWS est déjà jusqu'à 4,1 fois plus efficace que les infrastructures traditionnelles, avec la possibilité de réduire l'empreinte carbone des workloads jusqu'à 99%, nous dit l'entreprise, très (trop ?) confiante. Dans tous les cas, c'est le futur de l'infrastructure cloud qui se dessine : il sera plus intelligent, plus performant et plus responsable, peut-on résumer.
02 décembre 2024 à 20h23