Jonathan Koomey, un professeur de l'université de Stanford, s'est penché sur l'électricité utilisée par les data centers à travers le monde. Son étude, résumée par un article du New York Times, souligne que les serveurs des grandes entreprises sont moins gourmands que prévu, notamment en raison d'efforts réalisés pour économiser de l'énergie.
Jonathan Koomey explique ainsi que « l'électricité utilisée par l'ensemble des data centers en 2010 se situe entre 1,1 et 1 ,5% de la consommation globale d'électricité ». Pour les USA uniquement, le pourcentage se situe entre 1,7 et 2,2%, une fourchette bien plus basse que les estimations réalisées en 2007 par l'Environmental Protection Agency qui considérait que, l'évolution du parc informatique aidant, la consommation aurait dû doubler entre 2005 et 2010. Or, au final, elle n'a augmenté « que » de 56% au niveau mondial, et « que » de 36% aux Etats-Unis.
Le rapport de Koomey, repris par le New York Times, explique ce constat par la crise économique qui a entrainé la réduction des parcs de serveurs, mais également par le développement de la virtualisation, qui permet d'exploiter plusieurs programmes sur une même machine, ainsi que par l'élaboration de composants moins gourmands en énergie, tout simplement.
A titre d'exemple, le professeur de Stanford cite Google, dont les 900 000 serveurs ne consomment « que » 0,01% de l'électricité mondiale, malgré les chiffres colossaux souvent annoncés par la firme - 48 heures de vidéo envoyées chaque minute sur Youtube, 20 millions de membres sur Google+...
Si, globalement, ce constat peut s'avérer rassurant, l'avènement du cloud computing pourrait rapidement venir faire gonfler les statistiques. « Les chiffres ont du sens, mais ils ne doivent pas être pris comme une indication globale du problème. Il est certain que la consommation d'énergie augmente, et cela doit être le problème de tous » a commenté Kenneth Brill, un consultant en industrie interrogé par le NY Times.