Le sujet de la modération sur les réseaux sociaux ne sera jamais clos.
Et forcément, quand la modération se tourne vers des thèmes aussi délicats que le conflit actuel entre le Hamas et l’État israélien, elle marche plus encore sur des œufs. Meta pensait avoir au moins partiellement réglé le problème grâce à ses outils de modération automatique, mais ces derniers ont dû être corrigés par sa propre équipe de contrôle de la modération, le Meta Oversight Board.
La première procédure accélérée de l'Histoire de l'entreprise
Le Meta Oversight Board est l'organe suprême qui prend les décisions quant à la modération effectuée sur les réseaux du groupe Meta en cas de contestation d'une décision. Il faut d'ordinaire des semaines, voire des mois, pour que cet organisme indépendant se prononce. Mais pour sa première procédure accélérée, le board a choisi deux vidéos pour le moins sensibles : la première est celle d'une femme prise en otage lors de l'attaque du Hamas le 7 octobre dernier, et qui supplie ses ravisseurs. La seconde montre les résultats d'une frappe meurtrière sur un hôpital gazaoui pendant l'offensive de l'armée israélienne dans la bande de Gaza.
L'étude de ces deux vidéos a montré que les décisions prises à leur sujet, à la fois la suppression du contenu et le rejet de l'appel de la décision fait par leurs auteurs, ont été prises sans aucune intervention humaine. Avant même le « jugement », Meta les avait cependant restaurées, mais les avait affublées d'un avertissement, prévenant que le contenu pouvait choquer. Car si les vidéos violentes ou choquantes sont généralement supprimées sur les plateformes du groupe, il fait régulièrement des exceptions dans le cas où il s'agit d'informations accessibles nulle part ailleurs ou qu'elles ont une utilité publique, comme aider à une prise de conscience par exemple.
Au final, le board a confirmé les décisions de Meta, qui avait restauré les deux vidéos avant même son intervention, mais a largement critiqué les outils et le procédé amenant à cette situation.
Le problème de la modération automatique
En effet, le rapport quant à ces décisions explique dans un premier temps que Meta « aurait dû réagir plus vite pour adapter ses politiques de contenu au vu des circonstances, et de ce que coûtent de telles décisions à la liberté et l'accès à l'information ». Un reproche difficile à accorder avec une autre des remarques, qui anticipe que ce type de décision prise au cas par cas risque de créer le sentiment qu'elles sont totalement arbitraires, et donc d'éroder la confiance des utilisateurs quant à leur légitimité.
Mais cette affaire permet surtout de jeter un œil au fonctionnement interne de la modération de Meta. Si l'utilisation par une telle plateforme d'outils automatiques est compréhensible, leur généralisation sur des sujets aussi complexes pose en revanche question : si ces deux vidéos ont été restaurées, il semble probable que des centaines ou des milliers d'autres aient subi un traitement similaire sans arriver jusqu'au board. Surtout, on a découvert à cette occasion qu'en matière de modération, tout le monde n'était pas logé à la même enseigne : seuls les profils comptant le plus d'abonnés ont ainsi le droit à une modération 100 % humaine, ce qui leur permet de poster des contenus parfois choquant sans que le couperet de la modération ne tombe automatiquement.
Meta a accueilli ces conclusions positivement, ce qui n'a pas dû lui être très difficile puisqu'aucune action supplémentaire ne lui a été demandée.
Source : Engadget