Au cœur du confinement, YouTube avait remplacé ses modérateurs humains par une intelligence artificielle chargée de gérer les contenus sensibles.
YouTube vient toutefois de déclarer au Financial Times que son algorithme avait montré une modération trop agressive, celle-ci ayant entraîné une augmentation significative des suppressions de contenus et agacé certains utilisateurs. La plateforme de streaming entend par conséquent revenir à plus de modération humaine.
Chez YouTube, les suppressions avaient doublé
Selon le Financial Times, 11 millions de vidéos ont été supprimées de YouTube entre les mois d'avril et juin, soit environ deux fois plus qu'à l'accoutumée.
Sur ces 11 millions de suppressions, 320 000 ont fait l'objet d'une réclamation, et la moitié d'entre elles ont été remises en ligne. Là encore, ces taux de réclamations et de remises en ligne ont doublé par rapport à une situation « normale ».
Pour le Financial Times, mais aussi pour YouTube, c'est bel et bien le signe d'un algorithme un peu trop zélé. Dès le mois de mars, YouTube avait toutefois assumé cette décision en sachant qu'elle pourrait générer des erreurs.
Dans un communiqué, la plateforme avait alors déclaré : « Nous reconnaissons que cela peut perturber les utilisateurs et les créateurs, mais nous savons que c'est la bonne chose à faire pour les personnes qui travaillent pour assurer la sécurité de YouTube et pour la communauté en général ».
Les limites de l'IA
Les mesures de confinement généralisé ayant désormais tendance à s'éloigner, les modérateurs humains reviennent aujourd'hui dans les bureaux de YouTube.
Un relatif aveu d'échec, donc, qui témoigne des difficultés persistantes de l'IA à repérer les subtilités du langage : si les systèmes automatisés peuvent détecter un contenu manifestement choquant, ils peinent bien plus à repérer un discours raciste ou une thèse conspirationniste, des propos qui se sont largement développés depuis le début de la crise sanitaire. Pour cela, des modérateurs humains restent indispensables.
Si l'on accordera aux grands réseaux sociaux (YouTube, mais aussi Facebook et Twitter) d'avoir été sous pression ces derniers mois, l'IA a pourtant aussi supprimé des contenus plus facilement compréhensibles. En mai dernier, YouTube a ainsi reconnu avoir supprimé des commentaires critiques envers le parti communiste chinois. La société a par la suite accusé une « erreur dans ses systèmes d'application ».
Malgré tout, Neal Mohan dit rester confiant dans la place des systèmes automatisés sur la plateforme. Pour lui, la rapidité reste leur principal atout, précisant que « plus de 50% de ces 11 millions de vidéos ont été supprimées sans une seule vue par un utilisateur réel, et plus de 80% ont été supprimées avec moins de 10 vues ».
Source : The Verge