La société de virtualisation des serveurs, sur le marché depuis 1998, a évolué au fil des années, et se distingue aujourd'hui du cloud, qui offre des garanties moindres. Ghaleb Zekri, architecte sécurité chez VMware, a accordé une interview à Clubic pour en parler.
Connue historiquement pour sa solution de virtualisation des serveurs et pour permettre d'héberger plusieurs charges applicatives VM (machines virtuelles) dans un data center, la société américaine VMware a évolué avec le temps. Aujourd'hui, sa stratégie est de délivrer une infrastructure qui permet aux entreprises et aux utilisateurs de faire tourner toute application, sous n'importe quelle forme, sur n'importe quel type de cloud, en utilisant n'importe quel terminal.
Pour en savoir plus sur la façon dont virtualisation et cloud peuvent aujourd'hui cohabiter, nous avons rencontré Ghaleb Zekri, architecte sécurité chez VMware, lors des Assises de la sécurité 2019 à Monaco, le 10 octobre.
La virtualisation offre une agilité dont les entreprises veulent profiter
Clubic : Est-ce qu'aujourd'hui, la virtualisation permet de réaliser une économie d'énergie, outre une économie d'argent ?Ghaleb Zekri : Absolument. En fait, l'économie d'énergie, c'est le vecteur principal qui a amené la virtualisation chez les entreprises. Lorsqu'on devient une entreprise éco-responsable, on s'attaque essentiellement à l'impact énergétique. La virtualisation est en première ligne des solutions qui permettent de réduire l'empreinte carbone. La réduction de coûts est une conséquence directe à cette réduction d'empreinte carbone puisqu'en gros, j'achète moins de serveurs, j'ai la possibilité de construire un data center qui héberge plus de ressources, ce qui est mieux que d'en construire trois ou quatre. Très vite, les entreprises ont tiré profit de cette virtualisation, qui apporte une certaine agilité. La modernisation, la transformation digitale passe essentiellement par cette capacité à maintenir une agilité de l'infrastructure. Dans la stratégie de VMware, c'est ce que l'on appelle le software-defined, dont vous allez beaucoup entendre parler. Nous faisons en sorte que le data center soit carrément software-defined, de façon à ce que l'entreprise, aujourd'hui, n'a rien à envier à du AWS ou à du Azure pour construire une infrastructure aussi agile que le cloud. Cela représente une optimisation de coûts conséquente par rapport à une approche classique.
Rappelons aussi qu'en cas de panne de serveur, les applications et données de l'utilisateur, de l'entreprise, ne sont pas affectées...
Exactement, et c'est aussi dans la stratégie de sécuriser ce que l'on appelle le data protection : il y a une notion de résilience persistante pour que la data soit disponible pour les applications, et une intégrité et confidentialité. Nous avons beaucoup travaillé sur la protection de la donnée et sur le fait que la donnée stockée sur la partie storage ne soit pas impactée par un serveur. L'un des points importants : c'est la confidentialité. La virtualisation apporte cette couche d'abstraction entre l'application et le matériel. Nous profitons de cette couche pour ajouter du chiffrement sur ce que l'on appelle le data at rest (quand la donnée réside sur le disque lui-même, et le chiffrement quand on transfère la donnée d'un endroit à un autre). Lorsque la donnée bouge d'un serveur à un autre, ce flux est chiffré, et la personne qui intercepterait ce flux ne sera pas capable d'extraire la donnée. C'est important pour donner confiance aux entreprises.
« Avec le cloud, il y a cette problématique de ne jamais être totalement propriétaire des données qu'on y héberge »
Quel est le premier argument que vous évoquez, que ce soit pour un utilisateur lambda ou pour un professionnel, pour le convaincre d'adopter la virtualisation, à l'heure où beaucoup se tournent vers des solutions cloud tels AWS, Google Cloud, Azure ou Alibaba ?
Le premier argument d'importance, c'est la rapidité avec laquelle la virtualisation va leur permettre de mettre en place des applications, de les exécuter, de les manager, de les connecter, de les interconnecter et de les sécuriser. Si nous faisons ça dans un monde purement physique, cela prendrait des jours, des mois, en étant tributaire sur un plan sécuritaire de ce que l'on a construit sur le réseau physique, que l'on ne change pas tous les jours. Avec la virtualisation, on crée cette couche d'abstraction par rapport aux ressources physiques. Elles deviennent des ressources de traitement ou de transfert de l'information. L'intelligence est construite de façon software dans la couche de virtualisation. C'est exactement ce que font AWS, Google ou Microsoft quand ils proposent des services cloud : on ne sait pas sur quoi atterrit notre application, on sait tout simplement qu'elle fonctionne et qu'elle est interconnectée.
Le cloud est extraordinaire. Les entreprises le consomment parce qu'il facilite et donne satisfaction. L'application n'est pas hébergée au sein de son infrastructure. On la loue. Mais les contrats peuvent changer, la data n'est pas chez soi, donc il y a cette problématique de ne jamais être totalement propriétaire des données que l'on héberge dans le cloud.
Un Cyber Campus pourrait voir le jour « dès 2020 », nous confirme Guillaume Poupard (ANSSI)
« Les objets connectés, qui représentent une masse conséquente d'appareils, posent une problématique de traitement de la donnée »
Comment peut-on s'imaginer la sécurisation d'une plateforme de virtualisation ? :
Nous transformons la façon avec laquelle nous délivrons la sécurité. La sécurité doit être intrinsèque par rapport à l'infrastructure. Le meilleur endroit qui se positionne entre les ressources physiques et les applications posées au-dessus, c'est la couche de virtualisation. Nous ne sommes pas dans la machine virtuelle, au risque de désactiver les mécanismes de sécurité si elle est compromise, et nous ne sommes pas trop loin dans l'infrastructure physique, au risque que si l'application bouge d'un environnement à un autre, on perde le contexte de sécurité. La couche de virtualisation apporte donc ce que l'on appelle la zone habitable pour intégrer la sécurité.
Les législations nationales peuvent compliquer les activités des acteurs de la virtualisation et du cloud
Un mot de l'IoT, qui se développe rapidement, et de la 5G, qui commence à être commercialisée un peu partout dans le monde. Comment peut-on raccrocher la virtualisation à ces deux mondes ?L'un des vecteurs qui va permettre à l'IoT de se généraliser et de générer le boom vécu sur d'autres technologies, c'est bien la 5G. La 5G va être la locomotive qui va permettre aux domaines d'exploitation de l'IoT de se développer à grande vitesse. Cela implique un certain nombre de technologies. Les objets connectés, qui représentent une masse conséquente d'appareils, posent une problématique de traitement de la donnée.
« Répondre à toutes les régulations extraterritoriales est devenu un vrai challenge »
Par exemple, beaucoup se posent la question de la voiture autonome. Celle-ci est équipée d'un nombre important d'objets connectés. Et tous ses capteurs vont récupérer des informations envoyées dans un module de traitement, qui doit prendre la décision pour réagir. Ces objets connectés ont un système d'exploitation et doivent être mis à jour, gérés. Le centre de traitement ne peut pas être trop éloigné de l'objet connecté. Nous parlons donc aussi de l'edge computing, qui apporterait une proximité à l'objet connecté en termes de communication, et qui serait capable de rejoindre très rapidement, et avec les bons débits, l'objet connecté. D'où l'importance de la 5G.
Ensuite, construire de la technologie et de l'edge computing nécessite de construire une infrastructure qui pourrait être la plus homogène possible. La virtualisation joue un rôle très important. Chez VMware, nous avons travaillé sur les deux volets : celui de la partie IoT, avec une solution, Pulse, qui permet de gérer ces objets connectés et d'appliquer les bonnes mises à jour.
Que pensez-vous du Cloud Act, et en opposition, quel est votre avis sur l'idée de Bruno Le Maire de bâtir un cloud européen souverain ?
C'est un débat porté à différentes échelles : politique, industrielle et commerciale. VMware est une multinationale qui répond aux lois des pays où elle exerce. Notre rôle est d'aider les entreprises à construire leur solution cloud. Nous n'avons pas de préférence particulière. Nous apportons aux clients la capacité d'innovation. Ensuite, dire que l'on va construire une technologie cloud souveraine européenne devient une décision stratégique. Une TPE/PME, qui va devoir consommer du service cloud parce que son métier n'est pas de faire de l'informatique, va devoir supporter le coût du cloud. Elle aura aussi à supporter la régulation : celle de savoir où placer ses données et dans quel cloud, par rapport aux différences entre les réglementations par exemple.
Concernant le Cloud Act, nous ne nous prononçons pas pour ou contre, ce n'est pas notre rôle. Notre rôle, c'est d'aider les organisations, car répondre à toutes les régulations extraterritoriales est devenu un vrai challenge.
Merci d'avoir répondu à nos questions sur la virtualisation et le cloud. Bonne chance pour la suite.
Merci, à vous également.