Une étude de l'Université de Notre Dame (South Bend, Indiana) a mis en lumière l'inefficacité totale des plateformes de réseaux sociaux face à l'infiltration des bots IA. Ce, malgré leurs politiques de protection clairement affichées aux utilisateurs.

Les bots IA deviennent de plus en plus sophistiqués ; les plateformes doivent donc faire évoluer en permanence leurs stratégies de protection. © BCTumSS / Shutterstock
Les bots IA deviennent de plus en plus sophistiqués ; les plateformes doivent donc faire évoluer en permanence leurs stratégies de protection. © BCTumSS / Shutterstock

La multiplication des bots sur les réseaux sociaux représente une menace grandissante pour la qualité de nos échanges en ligne. Si certains d'entre eux remplissent des fonctions légitimes en matière de marketing ou de service client, d'autres disséminent de fausses informations ou orchestrent des campagnes malveillantes. Le sujet de la désinfomation en ligne est très sensible, et dans certains cas, ces manœuvres trompeuses peuvent avoir de lourdes conséquences.

Une équipe de chercheurs de l'Université de Notre Dame vient de démontrer la vulnérabilité des principales plateformes face à ce phénomène. Cette étude, menée par Kristina Radivojevic et mise en pré-publication sur ArXiv , appelle à prendre des mesures concrètes pour préserver l'intégrité de nos conversations dans la sphère numérique.

Les géants du web désarmés face aux bots

L'étude, menée sous la direction de Paul Brenner, directeur du Center for Research Computing à Notre Dame, a passé au crible huit plateformes majeures : LinkedIn, Mastodon, Reddit, TikTok, X ainsi que les différents services appartenant à Meta (Facebook, Instagram et Threads).

L'équipe a d'abord analysé les politiques officielles de protection et les mécanismes techniques mis en place par chaque plateforme pour contrer les bots. Ensuite, ils ont tenté de publier des messages de tests via des bots pour évaluer l'efficacité réelle de ces protections. Les résultats sont sans appel : aucune n'a réussi à bloquer efficacement les tentatives d'infiltration des chercheurs.

Reddit, l'une des mauvais élèves de cette étude. © Henry Franklin / Shutterstock
Reddit, l'une des mauvais élèves de cette étude. © Henry Franklin / Shutterstock

Une faille béante dans le système de protection

Les expérimentations ont révélé des disparités notables entre les plateformes testées. Si Meta a opposé une certaine résistance (la meilleure de toutes) avec ses mécanismes de détection – nécessitant quatre tentatives avant de céder – et TikTok maintient un niveau minimal de protection grâce aux CAPTCHAS, d'autres se sont montrées particulièrement vulnérables.

Paul Brenner explique : « Reddit, Mastodon et X ont été d'une simplicité déconcertante à infiltrer. Les politiques anti-bots de X, aussi rigoureuses soient-elles sur le papier, n'ont pas empêché la prolifération de bots sur la plateforme. Les mesures de contrôle semblent largement insuffisantes ».

De plus, l'équipe ne s'est pas équipé d'outils très complexes, loin de là. Elle s'est appuyée sur des outils accessibles au grand public comme ChatGPT-4 ou DALL-E 3. Aucunement besoin de disposer de compétences techniques pointues ou de matériel haut de gamme pour déployer des bots facilement. Même des stagiaires avec une formation minimale ont réussi à contourner les protections supposées des plateformes.

Face à ce constat, le mot est toujours le même : la régulation. Paul Brenner exhorte ainsi le gouvernement américain à prendre ses responsabilités. « Une législation américaine imposant l'identification claire des comptes automatisés devient indispensable, car les utilisateurs ne peuvent pas faire la différence par eux-mêmes » explique-t-il. Le progrès nous aurait-il donc rattrapés ? Nous aurons bientôt besoin d'une réglementation pour encadrer des bots avant même d'avoir réussi à réglementer un usage correct des réseaux sociaux. Un paradoxe étonnant.

Source : Notre Dame News