facebook

Si la nouvelle sonne comme une blague, elle révèle un problème de fond de la modération des contenus Facebook. Alors que l’intelligence artificielle fait des progrès dans tous les domaines, elle peine souvent à séparer les contenus sensibles des publications normales.

Les dirigeants de Facebook expliquent que l’IA a encore des progrès à faire pour discerner les contenus violents et haineux, avec une politique toujours plus restrictive.

Une intelligence artificielle toujours à la peine

En 2018, c’était un Mark Zuckerberg confiant qui affirmait qu' « à la fin de 2019, les systèmes seraient entraînés à déceler la vaste majorité des contenus problématiques ». À l’épreuve des chiffres, cette prévision ne s’est pas réalisée. On estime que l’IA n’est capable de reconnaître qu’une petite fraction des contenus violents ou incitant à la haine raciale, de l’ordre de 2 à 3 %.

Le reste ? Ce sont des contenus de tous les jours. Il n’est pas rare pour un utilisateur lambda de se voir censuré pour un post ou un commentaire parfaitement inoffensif. Une situation désormais nommée la « prison Facebook » qui pénalise souvent les utilisateurs. La modération automatique entraîne des situations cocasses, comme la suppression d’une vidéo de nettoyage automobile que l’IA a confondue avec une fusillade. Dans un autre cas récent bien plus sordide, un crime sanglant commis en direct a été qualifié de « jeu de paintball ».

Des dirigeants de Facebook affirment que pour remédier à ce problème, l’entreprise devait repenser durablement sa stratégie. Pour commencer, il s'agit de revoir sa façon de procéder. À l’heure actuelle, ce sont des échantillons de publications qui sont analysés par l’IA, avant d’être triés par des modérateurs humains. Sur ce modèle, la précision de la modération est estimée à 3 % environ, un chiffre trop faible au vu de la tâche surhumaine imposée à Facebook : analyser des dizaines de millions de contenus par jour.

Une modération automatisée pour réduire les coûts

Le maintien d’une immense équipe de modérateurs humains coûte de l’argent à Facebook, plus de 100 millions d’euros en 2019. En tablant sur une modération automatique, l’entreprise a su réduire ses coûts, au détriment de la qualité. Ce que les modérateurs humains sont en mesure de voir facilement, comme les scènes de violence, provoque toujours une confusion chez l’intelligence artificielle.

Signe des temps, la priorité de Facebook est de rechercher et de supprimer activement les incitations à la haine et à la violence. C’est une tâche plus facile dans les pays anglophones, mais dans des régions sensibles où l'on trouve plusieurs dialectes, comme l’Afghanistan, il semble que de nombreux posts échappent à la vigilance de la modération.

Le géant californien doit aussi jongler avec les utilisateurs qui abusent du bouton « Report » lorsqu’ils voient un commentaire désobligeant pour eux-mêmes. Toutes ces problématiques font que le réseau social a encore des challenges à surmonter pour rendre sa plateforme plus « propre ».

Source : ArsTechnica