Selon son président en charge des affaires internationales, la société Meta applique une modération abusive sur ses réseaux, pénalisant parfois des contenus totalement inoffensifs, au détriment d'autres, plus problématiques…

Si l'on connait désormais la politique de « liberté d'expression » si chère à Elon Musk, et appliquée sans modération (ou presque) sur le réseau X.com, c'est la modération du groupe Meta qui accuse aujourd'hui quelques ratés. La société américaine est en effet pointée du doigt par de nombreux détracteurs, concernant une modération très ciblée d'une part, mais qui aurait également tendance à supprimer des contenus totalement inoffensifs.
Meta reconnait des soucis de modération
En début d'année, Mark Zuckerberg présentait ses excuses aux familles du monde entier, concernant de sérieuses critiques émises sur la sécurité des enfants sur Facebook ou encore Instagram. De manière générale, la modération signée Meta souffre de nombreux dysfonctionnements, comme l'a confirmé récemment un cadre du groupe.
« Nous savons que nos taux d'erreur sont encore trop élevés, ce qui entrave la liberté d'expression que nous voulons favoriser », a déclaré Nick Clegg lors d'une conférence de presse. Ce dernier ajoute : « Trop souvent, des contenus inoffensifs sont supprimés ou restreints, et trop de personnes sont pénalisées de manière injuste ».

Des bots devenus « trop tatillons » ?
Récemment, Mark Zuckerberg a déclaré que l'administration Biden avait « exercé des pressions répétées » sur ses équipes de modération pour qu'elles « censurent » certains contenus liés au COVID en 2021. Toujours selon Nick Clegg, les systèmes de modération automatique, dans lesquels Meta aurait injecté « des milliards de dollars », se montreraient aujourd'hui un peu trop tatillons avec certains contenus.
Ce dernier a toutefois indiqué que les règles étaient comme « une sorte de document vivant, respirant », et qu'elles peuvent donc être amenées à rapidement évoluer. Rappelons qu'à la fin du mois de novembre, Mark Zuckerberg a pu s'entretenir avec le nouveau président des États-Unis, Donald Trump, à l'occasion d'un diner.
À l'heure actuelle, force est d'admettre que le système de modération de Meta accuse bel et bien de sérieuses lacunes. Si vous avez déjà essayé de signaler des vidéos de nudité, de mise en danger d'enfants, de menaces de mort et/ou encore de cruauté envers les animaux, il y a fort à parier que vous ayez reçu un message indiquant que rien ne justifiait, aux yeux de Meta, le retrait de ladite photo ou vidéo.
À contrario, il arrive fréquemment que des liens externes totalement inoffensifs soient rapidement bloqués par les bots de modération, certaines pages et certains groupes totalement pacifiques ayant également été supprimés, sans la moindre raison (ni avertissement) préalable).
07 février 2025 à 16h46
Source : The Verge
Et il y a AUCUN moyen de contacter quelqu’un de chez eux en cas d’erreur de leur part.
alors ouais surement il y a éventuellement des erreurs dans la moderation. des gens se font virer injustement. c’est embêtant…
MAIS ON EN PARLE QUAND de tous les brouteurs que je reporte et qui à chaque fois gardent leur compte ? je suis modo sur un gros groupe facebook c’est un enfer. je filtre, je vire, ça se repère en 5 secondes mais non facenook n’a jamais rien à redire. quelle blague. les modo sont juste pour protegerles centaines de millions d’accounts d’arnaqueurs. peuvent bien nous dire qu’ils ont plus de XX milliard d’utilisateurs, c’est du vent.
Le grand problème de ces plate-formes ce n’est pas qu’elles fassent des erreurs, ça arrive sur tous les systèmes automatisés mais le plus grave c’est qu’il n’y a souvent personne pour répondre derrière après une erreur.