Selon un nouveau rapport de Barracuda Networks, près de 40 % de l’ensemble du trafic sur Internet est le fait de « mauvais robots ».
L’étude nous apprend que la majorité du trafic des robots provient des deux plus grands fournisseurs de Cloud publics, AWS et Microsoft Azure.
Des bons et des mauvais robots
La nouvelle étude de Barracuda Networks commence en indiquant que le trafic internet est composé à 64 % de robots pour les six premiers mois de 2021. Avec ses outils d’analyse du trafic internet, l’entreprise a souhaité subdiviser cette première conclusion en trois camps distincts : les humains, les bons robots et les mauvais robots.
Les bots qui sont considérés comme néfastes sont ceux tentant de mener des activités malveillantes (scrapping de site, recherche de vulnérabilités, etc.). Ils s’attaquent essentiellement aux portails de connexion ou encore aux applications de commerce électronique dans le but de piéger les utilisateurs.
S’opposent à cela les « bons robots », qui ont une utilité bénéfique. Le plus souvent, il s’agit de robots de surveillance, de systèmes d’automatisation sur les réseaux sociaux ou encore des outils qu’utilisent les moteurs de recherche comme Google.
La distribution entre ces trois forces est plutôt partagée. Entre janvier et juin 2021, les bons robots représentent 25 % du trafic Internet, les humains 36 % et les mauvais robots 39 %.
Selon Nitzan Miron, Vice-président de la gestion des produits et de la sécurité des applications chez Barracuda, ces 39 % de robots malveillants constituent une grande préoccupation pour la santé des sites internet et des utilisateurs : « Lorsqu’ils ne sont pas contrôlés, ces mauvais bots peuvent voler des données, affecter les performances du site et même conduire à une violation. C’est pourquoi il est d’une importance capitale de détecter et de bloquer efficacement le trafic des robots ».
Des disparités régionales
Si l’on creuse en profondeur, on se rend compte que le trafic internet des robots n’a pas le même visage suivant la région. On apprend que l’Amérique du Nord représente 67 % de ce volume, suivie de l’Europe (22 %) et de l’Asie (7,5 %).
Barracuda précise qu’il est assez simple de bloquer ce mauvais trafic puisque la majorité de ce dernier provient de deux principaux endroits : les centres de données Amazon Web Services (AWS) et Microsoft Azure. Cela s’explique probablement par le fait qu’il est facile de créer un compte gratuit chez l’un de ces fournisseurs puis de l’utiliser pour lancer un ou plusieurs robots.
Le cas de l’Europe est différent. Les robots proviennent surtout de services d’hébergement (Virtual Private Server ou VPS) ou d’adresses IP résidentielles. Aux premiers abords, un site internet aura moins de facilités à les cibler dans leur ensemble.
Enfin, la conclusion de l’étude livre une analyse comportementale de ces robots. Très loin du cliché du hackeur qui mène ses activités en pleine nuit, les bots néfastes sont essentiellement actifs entre 8 et 17 heures. Les chercheurs ne sont pas étonnés puisque cela permet de se fondre dans un flux internet plus important et d’éviter de déclencher des systèmes de sécurité d’activité anormale.
Une tendance horaire similaire est évidemment observée pour le trafic internet humain, à la différence des autres robots qui sont actifs de manière constante.
L’étude de Barracuda Networks est à retrouver dans son intégralité via la source ci-dessous.
Sources : Barracuda Networks, Helpnetsecurity, Techcentral