Une équipe du Massachusetts Institute of Technology (MIT) est parvenue à mettre au point un système basé sur l'intelligence artificielle permettant de détecter les fake news, avec un très haut taux de précision.
Sur le chemin de la lutte contre la désinformation en ligne, une équipe de recherche du groupe Artificial Intelligence Software Architectures and Algorithms, rattachée au Lincoln Laboratory du célèbre MIT, s'était mise en tête de mieux comprendre les campagnes de désinformation, qui sévissent sur le Web et plus particulièrement sur les réseaux sociaux. Et les chercheurs en sont convaincus : à l'aide de l'intelligence artificielle, ils parviendront à contrer la propagation des fake news et à identifier ceux qui en sont à l'origine.
Une expérimentation durant les présidentielles françaises de 2017, avec une exceptionnelle précision dans la détection des comptes de désinformation
Tout a commencé en 2014 lorsque Steven Smith, membre du MIT Lincoln Laboratory, s'était lancé dans une quête visant à mieux comprendre l'essor des campagnes de désinformation en ligne. À cette époque, Smith et les autres chercheurs souhaitaient étudier la façon dont les groupes malveillants exploitaient les réseaux sociaux. Leur attention s'était portée sur des comptes qui selon eux avaient une activité inhabituelle. Ils semblaient alors pousser des informations pro-russes.
Curieuse d'en savoir plus et de se livrer à un cas pratique d'envergure, l'équipe de recherche a alors sollicité des financements supplémentaires pour étudier la campagne présidentielle française de 2017, et ainsi savoir si des techniques identiques pouvaient être utilisées.
En utilisant leur programme, baptisé RIO (pour Reconnaissance of Influence Operations), les chercheurs ont collecté une foule de données sur les réseaux sociaux, en temps réel, dans les 30 jours précédant les élections. Leur objectif était alors de rechercher et d'analyser la propagation des contenus assimilés à la désinformation. En un mois, ils étaient parvenus à compiler 28 millions de publications Twitter, provenant d'un million de comptes. Avec le programme RIO, ils furent en mesure de détecter les comptes relayant des fake news avec une précision de 96 %.
L'IA RIO peut détecter aussi bien les comptes robots que ceux gérés par des humains
Pour être d'une extrême précision, le système RIO combine plusieurs techniques d'analyse, afin de créer une sorte de toile de l'endroit et de la façon dont les news de désinformation sont diffusées. Et les spécialistes ne se contentent pas de se baser sur le nombre de tweets ou de retweets de chaque compte pour juger du pouvoir de désinformation de ce dernier. « Ce que nous avons constaté, c'est que dans de nombreux cas, ce n'est pas suffisant. Cela ne vous dit pas réellement l'impact des comptes sur le réseau social », explique l'un des membres de l'équipe RIO, Edward Kao.
Edward Kao a justement développé une approche statistique utilisée dans le programme RIO qui permet de savoir si un compte de réseau social se livre à de la désinformation, mais aussi à quel point le compte a un impact sur le réseau, et à quel degré ledit réseau amplifie le message diffusé. Autre membre de l'équipe, Erika Mackin, elle, a utilisé l'apprentissage automatique (machine learning) pour étudier le comportement de comptes, afin de savoir s'ils interagissent avec des médias étrangers, et la langue qu'ils utilisent. Cette approche a permis au programme RIO de détecter des comptes malveillants actifs aussi bien dans la campagne présidentielle française de 2017 que dans celle de désinformation sur la Covid-19.
L'un des grands avantages du programme RIO est qu'il peut détecter aussi bien des robots que des comptes gérés par des humains, ce qui le différencie grandement des systèmes automatisés habituels.
Si aujourd'hui le Lincoln Laboratory s'intéresse à la propagation des nouvelles de désinformation dans les médias européens, les chercheurs du programme RIO espèrent une utilisation future dans l'industrie des médias sociaux et même dans certains pays, à l'échelle gouvernementale. Un nouveau programme, visant à étudier les effets psychologiques et le changement de comportement occasionnés par la désinformation sur les utilisateurs, est en train d'être développé par les membres du MIT.
Source : Tech Xplore