La consommation d'eau et d'énergie des infrastructures faisant fonctionner des programmes tels que Bard ou ChatGPT augmente aussi vite que ces derniers deviennent populaires et puissants.
Ce n'est un secret pour personne : Internet pollue. En effet, les centres de données du monde entier sont responsables de 2 à 3 % de nos émissions de CO2. S'il est important, ce pourcentage démontre aussi notre dépendance à l'égard du numérique.
Un voyage en Twingo 1 jusqu'à la bibliothèque polluerait-il moins que l'utilisation de ChatGPT ?
Si les IA génératives promettent de révolutionner notre quotidien, elles peuvent aussi avoir un impact environnemental considérable. Par leur complexité, elles nécessitent une grande puissance de calcul, et donc beaucoup d'énergie. Si leurs éditeurs comme Google ou OpenAI ne communiquent pas sur leur consommation, certains chercheurs se sont penchés sur la question.
C'est le cas de Sasha Luccioni et de son équipe, qui ont calculé la quantité d'énergie requise pour entraîner et utiliser une IA créée de toutes pièces. En quatre mois, leur expérience aurait produit jusqu'à 50 tonnes de CO2, dont 25 pour la seule formation du programme, soit l'équivalent de 30 vols entre Londres et New York.
Toutefois, la chercheuse souligne que le réseau électrique sur lequel fonctionnent leurs équipements est en partie alimenté par de l'énergie nucléaire. GPT-3, nettement plus énergivore, est raccordé à un réseau plus carboné. Il aurait généré 500 tonnes de CO2 rien que pour son entraînement. L'équivalent de plus de 1 million de kilomètres parcourus par des voitures à essence.
Bard a soif, vraiment très soif
Les centres de données ne consomment pas que de l'électricité. En effet, ils produisent beaucoup de chaleur, et lorsque la climatisation traditionnelle n'est pas envisagée pour les refroidir en raison de sa consommation d'énergie, l'eau prend le relais.
Une autre étude a estimé que la formation de GPT-3 aurait consommé à elle seule... 700 000 litres d'eau douce. Cependant, les données officielles ne sont pas ou peu divulguées, et les chercheurs soulignent que la consommation d'eau dépend fortement de l'emplacement de l'infrastructure. En effet, un serveur situé dans un endroit chaud nécessitera plus de refroidissement qu'un autre qui se trouve dans une région plus tempérée.
Or, les géants de la technologie cherchent à réduire leur empreinte carbone, au risque de s'implanter dans des zones ensoleillées pour profiter de l'énergie solaire. Cela se fait souvent au détriment des ressources en eau.
Des ressources mal utilisées ?
Pour Sasha Luccioni, le problème n'est pas tant la conception des infrastructures qui font fonctionner l'IA générative, mais plutôt l'utilisation qui en est faite. Selon elle, ces programmes sont utilisés pour tout et n'importe quoi, en raison de l'effet de mode et du fait que les entreprises se forcent à les utiliser, de peur de se laisser distancer par la concurrence.
Pour la chercheuse, il s'agit d'une aberration : « Il y a tellement d'approches et de méthodes d'IA efficaces et à faible impact que les gens ont développées au fil des ans, mais on veut utiliser l'IA générative pour tout. » Elle ajoute : « Si les entreprises sont plus transparentes sur les ressources naturelles utilisées et les émissions de carbone émises lors de la création et de l'utilisation des modèles d'IA, elles pourraient contribuer à ouvrir des discussions sur le moment et la manière d'utiliser stratégiquement l'IA générative. »
En définitive, le danger le plus immédiat de ces programmes ne serait pas tant les risques qu'ils font peser sur nos sociétés, mais plutôt leur impact sur l'environnement. Et ce n'est pas ChatGPT qui va nous aider à résoudre ce problème, car selon lui : « En tant que modèle de langage d'IA, je n'ai pas de présence physique et je ne consomme pas directement d'énergie. » Peut-être devrions-nous apprendre aux intelligences artificielles à ne pas trop nous ressembler, au risque de générer plus de déni que d'objectivité ?
Source : The Guardian