Meta a annoncé être en train de développer un modèle d'intelligence artificielle capable de fact-checker Wikipédia.
Même si l'argument est dans une large mesure contestable, la critique de la fiabilité de Wikipédia est l'une des plus récurrentes sur Internet depuis la création de l'encyclopédie en ligne, en 2001. Pour remédier à cela, des salariés de Meta pensent avoir trouvé la solution. Ils veulent utiliser l'intelligence artificielle pour vérifier chacune des millions de pages qui s'y trouvent.
Faut-il fact-checker Wikipédia ?
Plusieurs exemples, par le passé, ont montré que la fiabilité de Wikipédia était loin d'être à toute épreuve. Certaines entreprises ou personnalités ont par ailleurs tenté, souvent avec succès, d'éditer leur propre page pour en supprimer quelques passages parfois gênants ou carrément faux.
Quoi qu'on en pense, l'encyclopédie en ligne est aujourd'hui le huitième site le plus visité au monde, avec pas moins de 255 millions de pages vues par jour, et une source très utilisée dans tous les secteurs.
Pourtant, le site lui-même met en garde les lecteurs. En effet, son objectif premier reste de rendre le savoir accessible gratuitement au plus grand nombre, ce que permet son mode de gestion et d'édition collaborative. Le revers de cette médaille est que des erreurs, intentionnelles ou non, peuvent se glisser dans les articles. Dans la page anglaise concernant sa propre fiabilité, Wikipédia précise : « L'encyclopédie en ligne ne se considère pas comme une source de confiance et décourage ses visiteurs de l'utiliser dans un but académique ou de recherche ».
Comment Meta compte-t-il procéder ?
Le mois dernier, des employés de Meta ont décrit dans un article de blog comment, selon eux, l'intelligence artificielle pouvait résoudre les problèmes précédemment cités.
Le principe est le suivant : à chaque fois qu'un utilisateur édite un article, en citant des chiffres précis ou une citation par exemple, l'IA qu'ils comptent développer scanne des milliers de pages pour vérifier que ces informations sont correctes d'une part, et pertinentes de l'autre. La source de ces milliers de pages ? Wikipédia, bien sûr.
Le développement de ce modèle rencontre pour l'instant deux difficultés principales. La première est d'apprendre à cette IA à reconnaître la pertinence des informations. Car trouver des informations similaires dans d'autres articles pour s'assurer de leur exactitude est relativement inutile si elles n'ont aucun rapport avec celui qui est vérifié. Une tâche ardue, quand l'on sait que l'IA est encore loin de comprendre ce qu'elle apprend, se contentant d'identifier des patterns. Et la seconde est de reconnaître la qualité des sources citées.
À noter que Meta n'a pas de partenariat avec Wikimédia pour ce projet qui, par ailleurs, est encore en phase de développement. Si cela vous intéresse, une démo est disponible en open source en cliquant ici.
Sources : Singularity Hub, Huffington Post