« Dans notre laboratoire de recherche, nous approchons du point où nous ne pourrons plus faire circuler davantage de données sur une fibre optique ». En mai dernier, le professeur Andrew Ellis, de l'Université d'Aston à Birmingham, lançait le signal d'alarme dans un entretien au Daily Mail1. « Les réseaux actuellement déployés ont entre six et huit ans de retard par rapport à ce que nous sommes capables de faire en laboratoire, poursuit-il. Mais il est de plus en plus difficile de conserver cette avance et nous ne pourrons pas tenir le rythme éternellement ». Le professeur estime même qu'Internet pourrait s'effondrer en 2023, avec des réseaux saturés par l'explosion des échanges. Un phénomène baptisé le « Capacity Crunch » (manque de capacité).
Si le scénario a de quoi inquiéter, c'est oublier un peu rapidement la rapidité avec laquelle la technologie a toujours su s'adapter. Nombre de spécialistes veillent à conserver sans cesse assez de marge de manœuvre pour que le réseau, devenu un élément vital des économies mondiales, subsiste dans les meilleures conditions.
SDN et CDN à l'œuvre
La virtualisation des réseaux et le Software-Defined Network apportent par exemple des solutions. Premièrement, il permet d'éviter les goulets d'étranglement. Le flux de données devant passer par des ports réseau (connecteurs physiques), la virtualisation de ces ports permet de traiter un ensemble d'équipements réseau comme une entité unique afin d'optimiser la circulation des flux. Côté bande passante, il en va de même pour les liaisons dont les capacités peuvent être allouées dynamiquement selon les besoins.
D'autres technologies existent pour optimiser la gestion du contenu et l'équilibrage de la charge du réseau. Ainsi, le CDN (Content Delivery Network) fait coopérer plusieurs serveurs répliquant un contenu à travers le monde afin de le rendre disponible au plus près de l'utilisateur final, allégeant ainsi la charge globale.
Autre mécanisme de plus en plus utilisé, notamment chez les opérateurs : la priorisation du trafic. Ces algorithmes déterminent des priorités de trafic qui favorisent une meilleure expérience de l'utilisateur final d'Internet. Ainsi, la voix ou le streaming peuvent être considérés comme plus critiques que des e-mails.
L'énergie au centre des préoccupations
Outre la bande passante, le professeur Ellis alerte également sur le problème de la consommation électrique. « Internet utilise environ deux pour cent de la consommation d'énergie de tout un pays développé. Et ce juste pour le transfert de données. Si vous ajoutez les ordinateurs, les téléphones, la télévision, on arrive jusqu'à huit pour cent de la consommation d'énergie du pays ! », explique-t-il. À cette cadence, nous serons en panne d'électricité dans 15 ans, selon lui.
Là encore, c'est sans tenir compte des constructeurs qui conçoivent des équipements réseau, mais aussi serveurs et stockage, de moins en moins énergivores. L'efficacité énergétique est aujourd'hui la priorité absolue dans l'élaboration et la gestion des grands datacenters. Et le prix de l'énergie étant appelé à augmenter, les datacenters et entreprises ne manqueront pas de s'équiper en matériels informatiques moins consommateurs.
« Les travaux menés au sein du consortium Greentouch, dont fait partie l'Inria (Institut national de recherche en informatique et en automatique), démontrent qu'il est possible de diminuer de 90 % à 98 % la consommation énergétique d'Internet entre 2010 et 2020, tout en conservant la même qualité de service, en prenant en compte l'explosion des usages, » affirme Laurent Lefèvre, chercheur à l'Inria2.
Fausse alerte alors ? Pas complètement. Les problématiques soulevées par le professeur Andrew Ellis existent bel et bien. Néanmoins, les équipements et technologies réseau de nouvelle génération sont eux aussi bien réels pour éviter le scénario catastrophe.
1 - http://www.dailymail.co.uk/sciencetech/article-3064915/The-Internet-reach-limit-just-eight-years-warn-engineers.html
2 - http://www.industrie-techno.com/un-blackout-d-internet-en-2023-5-raisons-de-ne-pas-y-croire.38188
Suivez DELL sur Linkedin
Suivez DELL sur Twitter