© Ilya Sedykh / iStock
© Ilya Sedykh / iStock

Une étude confirme ce que beaucoup soupçonnaient déjà : les articles rédigés en masse à l'aide de l'intelligence artificielle générative prolifèrent, et le résultat est aussi affligeant que dangereux.

Si ChatGPT et ses semblables peuvent grandement aider à synthétiser un travail fastidieux qui pourrait prendre des heures, leur utilisation excessive peut poser un réel problème.

Des centaines d'articles publiés chaque jour

NewsGuard, une organisation qui lutte contre la désinformation, a mené une étude pour identifier les sites produisant de grandes quantités de contenu généré par l'IA. À l'aide de plusieurs outils, ils ont pu mettre en évidence 49 d'entre eux, rédigés dans sept langues différentes, dont le français et l'anglais.

Véritables fermes à contenus, ils produisent en très grande quantité des articles liés à de nombreux sujets de société, tels que l'environnement, la politique, la santé ou la finance. Selon les chercheurs, « certains publient des centaines d'articles par jour », tous accompagnés de publicités, ce qui rend cette activité lucrative.

Comme ces intelligences artificielles génératives ont certaines limites, simplement techniques ou décidées par leurs développeurs, des messages d'erreur ou d'avertissement peuvent rapidement apparaître dans le contenu final. Sans compter les nombreux éléments conversationnels propres aux chatbots, qui déjouent la vigilance des éditeurs. C'est grâce à ces messages que les chercheurs ont pu mener leur enquête, en utilisant des mots-clés spécifiques sur les moteurs de recherche.

NewsGuard explique ainsi que sur les 49 sites mis en évidence, au moins un article était agrémenté de phrases telles que « mon entraînement s'est arrêté en septembre 2021 » ou « je ne peux pas achever cette invite ». L'organisation cite même, en exemple, un message informatif qui s'est glissé dans un titre, révélant le peu d'intérêt porté par certains auteurs à la relecture, quand ceux-ci n'automatisent pas carrément la publication.

Screenshot via NewsGuard
Screenshot via NewsGuard

« Mis-Info Bots »

En outre, les textes générés présentent d'autres défauts qui peuvent être moins faciles à détecter. « Presque tous les contenus sont rédigés dans un langage insipide dans des phrases répétitives, signes distinctifs de l'intelligence artificielle », décrivent les chercheurs. Ainsi, si le lecteur averti peut sûrement détecter l'origine de ce qu'il lit pour mieux l'interroger, ce ne sera sans doute pas le cas pour l'ensemble du lectorat. D'autant que ces signes distinctifs disparaissent progressivement avec l'amélioration des programmes.

Le problème principal devient alors la substance des sujets eux-mêmes, comme l'explique NewsGuard : « Une partie du contenu propose des récits erronés ». L'organisation cite notamment un article dont le titre suggère que le président des États-Unis, Joe Biden, est décédé, laissant sa vice-présidente prendre ses fonctions. Si l'IA utilisée dans ce cas, ChatGPT, précise plus tard qu'elle ne peut pas écrire un tel « contenu fallacieux », elle reste tout à fait capable de le faire dans d'autres cas, tant elle peut parfois fabriquer des fake news.

Tous les sites ne semblent pas utiliser l'IA de la même manière, et certains auteurs affirment soigneusement vérifier la fiabilité des informations qu'ils transmettent. Mais NewsGuard met cependant en garde contre ce qu'il appelle les « Mis-Info Bots », ou Robots de désinformation dans la langue de Voltaire. Mise en garde d'autant plus importante que certains sites les utilisant à outrance deviennent populaires. L'un d'entre eux, ScoopEarth.com, qui publie en masse des biographies de célébrités, est suivi par 124 000 personnes sur Facebook. Pas de quoi aider les réseaux sociaux qui sont déjà confrontés depuis plusieurs années à des difficultés liées à la désinformation.

Source : The Guardian

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10