La lutte contre la désinformation générée par l'IA est une course sans fin. © Ralf Liebhold / Shutterstock
La lutte contre la désinformation générée par l'IA est une course sans fin. © Ralf Liebhold / Shutterstock

Alors que les élections présidentielles américaines de 2024 se rapprochent lentement, les tentatives de diffusion d'informations inondent le web. OpenAI vient de mettre court à une opération de désinformation organisée par un réseau iranien.

Une semaine après la découverte d'une opération d'ingérence de l'Iran par Microsoft, cette fois-ci, c'est OpenAI qui a mis fin aux agissements d'un réseau iranien baptisé Storm-2035. Ce dernier utilisait ChatGPT dans le but de manipuler l'opinion publique autour des élections présidentielles américaines. Les impacts de l'opération ont été plutôt limités, mais cela montre bien l'importance des résultats de la campagne électorale américaine pour certains groupes d'Iran. Il y a deux jours, le groupe de hackers APT42, lié également à la république islamique, s'était attaqué aux comptes personnels de Harris et de Trump.

Ces événements récents prouvent que la menace des cyberattaques et des tentatives de propagation d'informations erronées, qu'elles soient menées par des groupes d'influence ou des hackers, demeure omniprésente à l'approche d'élections aussi importantes.

Storm-2035 : l’intelligence artificielle, nouvel outil de propagande

La désinformation est une arme puissante, et qui inquiète les plus grands de ce monde, au même titre que d'autres menaces pesant sur nos sociétés. Storm-2035 en a bien compris le potentiel, puisque le réseau est actif depuis 2020. Ce groupe, démasqué par les experts de Microsoft, exploite l'intelligence artificielle pour façonner la pensée collective ; tenter de la façonner, tout du moins. Par le biais de cinq plateformes web déguisées en organes de presse, Storm-2035 distillait un contenu élaboré pour polariser le débat public. Leurs publications abordaient des sujets aussi variés que la politique américaine, les tensions à Gaza, la controverse autour de la présence israélienne aux Jeux olympiques, ou encore les droits des communautés Latino aux États-Unis.

Loin de se cantonner aux articles de fond, cette opération d'influence s'étendait également aux réseaux sociaux. « Notre enquête a montré que cette opération utilisait ChatGPT pour deux objectifs : produire de longs articles et des commentaires plus courts pour les réseaux sociaux. Les articles, portant sur la politique américaine et les événements mondiaux, étaient publiés sur cinq sites web se faisant passer pour des médias d'opinion, tant progressistes que conservateurs. Les commentaires, en anglais et en espagnol, étaient diffusés sur les réseaux sociaux, notamment sur X et Instagram […] Pour créer du contenu, ces comptes utilisaient ChatGPT pour reprendre des commentaires existants et les reformuler » explique OpenAI.

Un peu moins de trois mois nous séparent désormais des élections américaines.  © Netpixi / Shutterstock
Un peu moins de trois mois nous séparent désormais des élections américaines. © Netpixi / Shutterstock

OpenAI : traque des mensonges 3.0

Face à cette menace, OpenAI ne se contente pas de neutraliser les comptes incriminés et s'est engagé dans une démarche plus poussée. « Malgré le faible engagement du public généré par cette opération, nous prenons très au sérieux toute tentative d'utilisation de nos services dans le cadre d'opérations d'influence étrangères. Par conséquent, dans le cadre de nos efforts pour aider la communauté à lutter contre ce type d'activité après avoir supprimé les comptes de nos services, nous avons partagé des informations sur la menace avec les gouvernements, les campagnes électorales et les acteurs du secteur privé. OpenAI reste déterminé à identifier et à réduire ce type d'abus à grande échelle en collaborant avec l'industrie, la société civile et les gouvernements, et en exploitant le potentiel de l'IA générative pour renforcer notre action. Nous continuerons à publier des résultats comme ceux-ci afin de favoriser le partage d'informations et les meilleures pratiques » a souligné l'entreprise.

Bien que les conséquences des tentatives de déstabilisation de Storm-2035 semblent assez faibles, cette opération met en évidence un fait indiscutable : l'utilisation croissante de l'IA dans le conditionnement de l'opinion publique est une réalité. Fait encore plus tangible lorsqu'il est question d'événements aussi déterminants que celui de l'élection présidentielle américaine, un enjeu majeur à la fois pour le pays, mais aussi pour l'équilibre géopolitique mondial.

Sources : OpenAI, TechCrunch