Occupant de plus en plus de place dans l'opinion, l'intelligence artificielle pousse inévitablement à se poser davantage de questions sur l'impact carbone qu'elle génère, qui serait trop important pour certains chercheurs.
Ces dernières semaines, les ChatGPT, Google Bard et autre Microsoft Bing, sans parler de toutes ces intelligences artificielles qui bercent notre quotidien ou de ces géants de la Tech qui veulent aussi leur part du gâteau (comme Amazon), ont pris une part croissante dans l'actualité. L'IA est devenue un sujet majeur dans tous les secteurs, pour ce qu'elle apporte en matière de capacités (et de revenus). Sauf que tout cela a un coût, un coût énergétique qui est d'ailleurs très important et qui pousse des chercheurs à tirer la sonnette d'alarme.
Les modèles d'IA pompent énormément d'énergie
À l'heure où les autorités appellent à aller plus loin encore dans les économies d'énergie, l'IA connaît une croissance exponentielle avec la multiplication des produits, citons par exemple les robots conversationnels (ou chatbots), les générateurs d'images ou d'autres modèles d'intelligence artificielle moins connus du grand public.
Cette diffusion massive de l'IA entraine une forte consommation d'énergie, plus importante encore que les autres formes d'informatique. À l'issue de leurs discussions avec des chercheurs spécialisés en la matière, nos confrères de Bloomberg ont estimé que la formation d'un seul modèle consommerait autant d'énergie que celle générée par 100 foyers américains sur un an.
Cette proportion ne cesse de prendre de l'épaisseur, et elle peut grossir encore plus selon la façon dont l'électricité est produite : un data center qui puise son énergie dans une centrale au charbon ou au gaz naturel causera des émissions de carbone beaucoup plus importantes qu'une électricité issue de ressources éoliennes ou solaires.
L'IA, chez Google, consommerait autant qu'une ville de 500 000 habitants
Le désormais célèbre modèle d'IA d'OpenAI, GPT-3, aurait à lui seul nécessité quelque 1 287 gigawattheures pour boucler son apprentissage, une consommation comparable à celle de 120 foyers américains sur une année, selon des chercheurs de Google et de l'Université de Berkeley. Soit ce que consomment 110 voitures en un an, ou 502 tonnes d'émissions de carbone.
Visiblement, le coût énergétique initial ne serait que l'arbre qui cache la sombre forêt, puisqu'il ne pèserait que pour 40 % de l'énergie réellement consommée par le modèle d'IA. Et la taille de ces modèles n'aide pas : plus ils présentent de paramètres, plus ils gonflent leur consommation d'énergie. GPT-3 embarque 175 milliards de paramètres, contre 1,5 milliard pour son prédécesseur.
Selon les estimations de Google, l'intelligence artificielle pourrait être responsable de la consommation énergétique de l'entreprise à hauteur de 10 à 15 %, soit 2,3 térawattheures, où la consommation annuelle du parc résidentiel d'Atlanta, qui abrite autour de 500 000 habitants.
Le comble, c'est que tous les plus grands acteurs de la Tech ont pris des engagements drastiques en matière d'émissions, beaucoup tablant sur une neutralité carbone à horizon 2030, 2040 ou 2050. Et si l'intelligence artificielle peut servir, comme chez Google, à optimiser l'efficacité énergétique de ses centres de données, elle vient ici entretenir une espèce de cercle vertueux, dont les véritables données de consommation ne sont pas prêtes d'être révélées.
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
Source : Bloomberg