Selon son président en charge des affaires internationales, la société Meta applique une modération abusive sur ses réseaux, pénalisant parfois des contenus totalement inoffensifs, au détriment d'autres, plus problématiques…
Si l'on connait désormais la politique de « liberté d'expression » si chère à Elon Musk, et appliquée sans modération (ou presque) sur le réseau X.com, c'est la modération du groupe Meta qui accuse aujourd'hui quelques ratés. La société américaine est en effet pointée du doigt par de nombreux détracteurs, concernant une modération très ciblée d'une part, mais qui aurait également tendance à supprimer des contenus totalement inoffensifs.
Meta reconnait des soucis de modération
En début d'année, Mark Zuckerberg présentait ses excuses aux familles du monde entier, concernant de sérieuses critiques émises sur la sécurité des enfants sur Facebook ou encore Instagram. De manière générale, la modération signée Meta souffre de nombreux dysfonctionnements, comme l'a confirmé récemment un cadre du groupe.
« Nous savons que nos taux d'erreur sont encore trop élevés, ce qui entrave la liberté d'expression que nous voulons favoriser », a déclaré Nick Clegg lors d'une conférence de presse. Ce dernier ajoute : « Trop souvent, des contenus inoffensifs sont supprimés ou restreints, et trop de personnes sont pénalisées de manière injuste ».
Des bots devenus « trop tatillons » ?
Récemment, Mark Zuckerberg a déclaré que l'administration Biden avait « exercé des pressions répétées » sur ses équipes de modération pour qu'elles « censurent » certains contenus liés au COVID en 2021. Toujours selon Nick Clegg, les systèmes de modération automatique, dans lesquels Meta aurait injecté « des milliards de dollars », se montreraient aujourd'hui un peu trop tatillons avec certains contenus.
Ce dernier a toutefois indiqué que les règles étaient comme « une sorte de document vivant, respirant », et qu'elles peuvent donc être amenées à rapidement évoluer. Rappelons qu'à la fin du mois de novembre, Mark Zuckerberg a pu s'entretenir avec le nouveau président des États-Unis, Donald Trump, à l'occasion d'un diner.
À l'heure actuelle, force est d'admettre que le système de modération de Meta accuse bel et bien de sérieuses lacunes. Si vous avez déjà essayé de signaler des vidéos de nudité, de mise en danger d'enfants, de menaces de mort et/ou encore de cruauté envers les animaux, il y a fort à parier que vous ayez reçu un message indiquant que rien ne justifiait, aux yeux de Meta, le retrait de ladite photo ou vidéo.
À contrario, il arrive fréquemment que des liens externes totalement inoffensifs soient rapidement bloqués par les bots de modération, certaines pages et certains groupes totalement pacifiques ayant également été supprimés, sans la moindre raison (ni avertissement) préalable).
31 octobre 2024 à 20h19
Source : The Verge