Au sein des équipes de l'encyclopédie Wikipédia, on est plutôt partagé quant à l'utilisation de l'IA sur la plateforme.
IA générative, ou pas d'IA générative sur Wikipédia ? Il y a quelques semaines, le fondateur de l'encyclopédie numérique, Jimmy Wales, ne fermait pas complètement la porte à l'intelligence artificielle, pour aider à la création d'articles par exemple. Mais l'IA n'est pas parfaite. Elle fait peser un lourd risque de désinformation, ce qui pousse Wales à l'exclure pour le moment, appelant à la prudence sur le sujet. Du côté des Wikipédiens, les avis sont plus divisés.
Utiliser l'IA sur Wikipédia ? Le risque de générer de fausses informations
Doit-on utiliser des modèles de langage de type GPT d'OpenAI sur Wikipédia ? À cette question, les réponses divergent au sein de la communauté de Wikipédia. Si certains considèrent que l'intelligence artificielle est déjà capable d'aider à générer et à résumer des articles, d'autres font preuve d'un moins grand enthousiasme, pour ne pas dire de scepticisme.
Si les IA génératives ont fait preuve de leur capacité à résumer et synthétiser des contenus, elles sont susceptibles d'inclure, durant leurs opérations, de fausses informations, ou à tout le moins des données incorrectes, jusqu'à citer des sources ou des articles qui, eux, n'existent même pas.
L'encyclopédie est-elle prête à prendre le risque de générer plus de contenus en réduisant la qualité de ces derniers, au sein desquels divers éléments et informations non vérifiés pourraient se glisser ? « Je ne crois pas qu'il y ait quoi que ce soit de mal à l'utiliser comme première ébauche, mais chaque point doit être vérifié », argumente Amy Bruckman, professeur du Georgia Institute of Technology.
Deux courants de pensée qui s'affrontent
Les choses bougent, puisque la Wikimedia Foundation réfléchirait à créer des outils qui aideraient les volontaires à identifier les contenus créés par des robots. Et Wikipédia travaille à l'écriture d'un règlement qui viendrait encadrer l'utilisation des modèles de langage dans le processus de création du contenu. La tendance actuelle, selon Vice, serait d'éviter autant que faire se peut de faire appel à eux pour écrire des articles sur l'encyclopédie numérique. Les dérives exposeraient en effet la Wikimedia Foundation à des poursuites judiciaires, pour diffamation par exemple, ou violations de droits d'auteur.
Il ne faut tout de même pas oublier que l'IA n'est pas une nouveauté du côté de Wikipédia. La traduction automatique en est par définition déjà imprégnée. Et malgré cela, des volontaires de longue date restent peu enclins à aller plus loin sur l'IA.
D'un point de vue officiel, la Wikimedia Foundation voit l'IA comme une opportunité d'aider à faire évoluer les contributions des Wikipédiens. Elle veut néanmoins que l'engagement humain demeure « la pierre angulaire de l'écosystème de connaissances Wikimedia ». Il sera cependant difficile de faire sans à l'avenir.
Source : Vice