Assainir les débats ayant une fâcheuse tendance à s'enflammer sur Internet ? C'est la volonté des chercheurs de l'université de Cornell.
Ils ont en ce sens développé une IA capable de déterminer dans des conversations en temps réel si la discussion prend une mauvaise tournure et de suggérer des moyens de désamorcer une potentielle bombe à retardement.
Un projet lancé sur Reddit (non, ce n'est pas du troll)
Les débats parfois très houleux sur Internet sont désormais un problème quotidien à très grande échelle. « Même les personnes avec les meilleures intentions du monde peuvent s'emporter sur un sujet qui leur tient à cœur, car nous sommes après tout humains », précise fort justement Jonathan Chang, étudiant en doctorat de science des ordinateurs et participant à la recherche.
Pour éviter autant que possible le point de bascule entre débat sain et déferlement de haine, des chercheurs de l'université de Cornell ont ainsi développé un outil baptisé ConvoWizard. Il s'agit d'une extension de navigateur alimentée par un réseau neuronal, nourri par de nombreuses discussions sur le subreddit « Change My View ».
Ce forum entend en effet favoriser des débats en bonne société sur des sujets parfois brûlants en rapport avec la politique, l'économie ou la culture, entre autres thèmes.
Mieux vaut prévenir que guérir
Les membres du subreddit peuvent ainsi activer ConvoWizard qui les informera en temps réel, alors même qu'ils tapent une réponse, des potentielles conséquences de leur message. Si les mots employés risquent de créer des tensions, l'outil avertira l'utilisateur par les éléments sensibles surlignés en rouge, l'encourageant à reconsidérer sa réponse.
Parmi les 50 utilisateurs sondés (il s'agit après tout d'un sujet de recherche à petite échelle), 68 % ont estimé que ConvoWizard présentait une analyse pertinente, voire meilleure que leur propre intuition. « Il est excitant de penser que des outils alimentés par l'IA comme celui-ci puissent encourager des discussions en ligne saines. Donner aux participants d'un débat la possibilité de s'autoréguler en utilisant sa propre intuition s'avère plus efficace que de les contraindre ou les censurer », explique l'un des chercheurs.
En parallèle de cette intelligence artificielle qui donne une chance aux utilisateurs de se rattraper avant de se lancer dans une escalade à la haine, les chercheurs de l'université de Cornell travaillent sur un autre outil similaire. Celui-ci s'adresserait aux modérateurs, qui sont parfois bien malmenés pour désamorcer des débats partis du mauvais pied (coucou les modérateurs de Clubic ❤).
Au vu de l'échelle de ces recherches, la fin des trolls n'est donc pas encore pour tout de suite. Mais c'est, on l'espère, un petit pas dans la bonne direction.
Source : Université de Cornell