Faut-il encore le répéter ? Les chatbots IA ne sont pas des moteurs de recherche et ne dispensent par de faire preuve d'esprit critique. S'il fallait encore un argument pour le prouver, les tentatives russes pour biaiser les réponses générées par l'intelligence artificielle devraient suffire à vous convaincre.

La désinformation russe s'attaque aussi aux chatbots d'IA pour manipuler l'opinion publique © PHOTOCREO Michal Bednarek / Shutterstock
La désinformation russe s'attaque aussi aux chatbots d'IA pour manipuler l'opinion publique © PHOTOCREO Michal Bednarek / Shutterstock

On connaissait déjà l'ampleur des campagnes russes visant les réseaux sociaux et les médias traditionnels. Voici désormais le Kremlin lancé dans une bataille plus subtile : influencer les intelligences artificielles. En contaminant discrètement, mais sûrement, les réponses générées par des chatbots comme ChatGPT, Gemini ou Claude, Moscou cherche à manipuler indirectement l’opinion publique occidentale, profitant de la confiance grandissante des internautes dans ces technologies.

Quand les IA deviennent relais (involontaires) de la propagande

Cette opération porte un nom : Pravda (à ne pas confondre avec le domaine pravda.ru). Derrière ce terme russe, qui signifie « vérité », se cache un immense réseau de désinformation lancé en avril 2022, géré depuis Moscou, et spécialisé non plus seulement dans l'influence directe auprès des internautes, mais dans la manipulation des modèles d'intelligence artificielle.

C’est en tout cas ce que révèle un récent audit détaillé mené par l'organisation indépendante NewsGuard, qui démontre que Pravda inonde les données publiques utilisées par les grands modèles de langage d'intelligence artificielle, les fameux LLM, avec une quantité impressionnante de contenus faux ou trompeurs.

Pour parvenir à ces conclusions inquiétantes, NewsGuard a mené une enquête poussée sur une période prolongée, testant méthodiquement les dix principaux chatbots d'intelligence artificielle utilisés actuellement : ChatGPT-4o d’OpenAI, Claude d’Anthropic, Grok de xAI, le Chat de Mistral, Perplexity, Gemini de Google, ou encore le Copilot de Microsoft.

L'organisation a soumis à chacun de ces modèles quinze fausses informations diffusées par le réseau Pravda, en variant les approches des requêtes pour tester la fiabilité des agents conversationnels mis à l’épreuve. Trois scénarios différents ont été utilisés : une approche neutre demandant simplement au chatbot des précisions sur un fait, une autre plus orientée présentant la fausse information comme avérée, et une dernière volontairement trompeuse cherchant à contourner les garde-fous intégrés dans les IA.

Pourcentage de réponses relayant de fausses informations issues du réseau Pravda © NewsGuard
Pourcentage de réponses relayant de fausses informations issues du réseau Pravda © NewsGuard

Et le moins que l’on puisse dire, c’est que le bilan de ces tests est préoccupant. Dans près d’un tiers des cas (33,55 % exactement), les IA ont non seulement repris à leur compte et relayé les informations erronées issues du réseau Pravda, mais sept d’entre elles ont même parfois cité ces contenus comme sources légitimes.

Que faut-il en conclure ? Tout simplement que les utilisateurs et utilisatrices cherchant des réponses objectives concernant des faits, des événements, peuvent accéder, sans le savoir, à des récits manipulés, voire totalement faux, sur des sujets sensibles, au sujet notamment des enjeux politiques internationaux. À titre d'exemple, plusieurs chatbots ont faussement affirmé que le président ukrainien Zelensky aurait interdit l’application Truth Social de Donald Trump, une assertion montée de toutes pièces par le réseau Pravda, alors que le réseau social n’a de toute façon jamais été lancée en Ukraine.

Nombre d'articles issus de Pravda, cités par les chatbots IA testés © NewsGuard

Le "LLM grooming", nouvelle arme de désinformation du Kremlin

Cette stratégie particulièrement efficace porte un nom : le « LLM grooming », et elle consiste à saturer les moteurs de recherche et les web crawlers de contenus trompeurs et manipulés. De fait, les intelligences artificielles, qui s'appuient fortement sur ces moteurs pour apprendre et construire leurs réponses, finissent donc par intégrer ces récits erronés dans leurs données d’entraînement.

À ce jour, Pravda contrôle plus de 150 sites dans 49 pays, dont 70 à destination des pays européens, et dans des dizaines de langues différentes, dont le français. Son fonctionnement est particulièrement sournois : les contenus publiés sur ces sites ne sont presque jamais originaux. Ils consistent essentiellement à recycler, amplifier et « blanchir » des récits de propagande initialement diffusés par les médias d’État russes ou par des relais proches du Kremlin. Et c’est justement cette stratégie d’amplification coordonnée qui rend particulièrement difficile l’identification et la suppression totale de cette désinformation.

Pire encore, le réseau Pravda produit une masse colossale de contenu : 3,6 millions d’articles rien qu’en 2024. Un chiffre si élevé qu’il rend quasiment impossible un filtrage manuel ou automatisé efficace sur le long terme. Par là même, identifier et bloquer les domaines et sous-domaines liés au réseau ne servirait à rien, alors que de nouveaux sites relais sont enregistrés en permanence, et qu'ils ne font que relayer des contenus issus d'autres sources médiatiques. Bref, la lutte est vaine.

Le nombre de domaines et sous-domaines Pravda enregsitrés augmente chaque trimestre de manière fulgurante © NewsGuard

Il va donc sans dire qu’en influençant ainsi la manière dont les IA répondent aux questions des internautes, le réseau russe peut potentiellement altérer durablement la perception publique des événements. D’autant que cette approche s’inscrit pleinement dans la stratégie assumée par Moscou pour s’imposer dans le secteur stratégique de l’intelligence artificielle.

Lors d’une conférence sur l’IA à Moscou en 2023, Vladimir Poutine avait ouvertement dénoncé les biais supposés des technologies occidentales, les accusant de marginaliser la culture et les points de vue russes. En réponse, le président russe avait annoncé vouloir investir massivement dans le développement de ses propres modèles de langage et outils d’IA générative, promettant ainsi de rééquilibrer l’influence culturelle et politique mondiale en faveur du Kremlin.

Source : NewsGuard

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025

04 février 2025 à 14h11

Comparatifs services