Dans une note de blog, les équipes de YouTube ont annoncé la mise en place de bots destinés à améliorer le travail de la modération de la plateforme.
Au regard de la colossale quantité de commentaires à traiter, les équipes de modération de YouTube avaient déjà eu recours à l'automatisation et au machine learning. Désormais, les bots modérateurs récupèrent une fonctionnalité jusqu'alors réservée aux humains : alors qu'ils étaient cantonnés à la détection de comptes et de messages contraires aux règles de la plateforme, ils pourront maintenant appliquer des sanctions.
La modération des commentaires YouTube, un sujet malheureusement d'actualité en permanence
Les problèmes de la modération sur YouTube sont loin d'être nouveaux. En effet, la plateforme a dû peu à peu se déporter de son ambition initiale, qui consistait à autoriser à peu près tous les discours, en négligeant ainsi les effets dans le monde réel de ces contenus violents, haineux, ou mensongers. On constate toutefois que la politique de contenus du lecteur de Google a souvent changé, et sa lutte contre les fake news dans le domaine médical depuis la pandémie de la COVID-19 en est un bon exemple.
Mais les règles déjà laxistes restent difficilement appliquées concernant les vidéos, trop nombreuses pour être toutes étudiées. Les espaces commentaires situés directement en dessous ressemblent ainsi parfois à des vraies zones de non-droit. Conscient du problème, YouTube a donc pris la décision radicale de laisser ses bots prendre des décisions, allant de l'avertissement à la suppression du compte des utilisateurs qui ne respectent pas les règles. Les personnes concernées par de telles décisions doivent en théorie en être notifiées et peuvent les contester.
Encore des bots ? Vraiment ?
Si augmenter l'automatisation de la modération au regard de la masse de commentaires à traiter est une décision compréhensible, l'efficacité de la mesure, et surtout la possibilité d'en contester les effets, reste à vérifier. Prise (comme d'habitude sur la plateforme) sans consultation des créateurs de contenus, cette décision est surtout à mettre en parallèle avec d'autres automatisations survenues par le passé et qui ont quelques lacunes.
Le content ID, bot permettant de repérer et de supprimer ou démonétiser des contenus utilisant des images ou musiques dont l'auteur n'a pas les droits, est largement critiqué, et depuis des années, par les vidéastes : une vidéo d'une heure peut être entièrement démonétisée pour quelques secondes de musique par exemple. Et surtout, le système fait des erreurs, en attribuant parfois la paternité d'une œuvre à un plagiaire, et privant ainsi l'auteur original des revenus associés.
Un autre bot, chargé de classer les vidéos par thème et public, est également régulièrement critiqué, comme lorsqu'il avait classé une chaîne horrifique en « contenu pour enfant » car certaines des vidéos étaient réalisées en animation.
Le véritable problème de l'automatisation chez YouTube, c'est son côté irrémédiable, dans lequel vont donc presque fatalement tomber des personnes dont les commentaires seront supprimés par erreur. Car lorsqu'un bot se trompe, le seul recours est de soumettre un feedback au support Google. Ensuite, la boîte à feedback sert peut-être à caler une porte ou à boucher un trou, on ne sait pas trop, mais les auteurs de ceux-ci ne reçoivent presque jamais de réponse.
Source : Ars Technica, Support Google