© Kaspars Grinvalds / Shutterstock.com
© Kaspars Grinvalds / Shutterstock.com

Le réseau social est touché par une explosion de la publication des contenus sensibles au premier trimestre 2022.

Meta, la maison mère de Facebook, vient de partager son rapport trimestriel sur le respect de ses mesures communautaires pour le premier trimestre 2022.

Deux fois plus de contenus violents sur Facebook, un quasi statu quo pour Instagram

Durant cette période, le groupe indique avoir supprimé 21,7 millions de posts contenant des images ou des vidéos violentes ainsi que des publications incitant à la haine. C'est une augmentation de près de 100 % par rapport au dernier trimestre 2021, où Facebook indiquait avoir retiré 12,4 millions de ses contenus.

Meta explique ces chiffres élevés par ses outils de suppression automatique et de « détection proactive ». En effet, 98 % des contenus auraient été retirés de la plateforme avant même leur signalement.

Sur Instagram, les choses semblent plus mesurées. La plateforme, connue pour ses contenus bienveillants, a toutefois vu 2,7 millions de ses posts retirés, mais l'augmentation est quasi nulle par rapport au dernier trimestre 2021 (2,6 millions).

Dans le même temps, Meta indique avoir rétabli 756 000 contenus Facebook supprimés par anticipation par ses systèmes de détection et dont les auteurs avaient envoyé une réclamation.

Meta accusée d'avoir laissé proliférer la vidéo de la tuerie de Buffalo durant plusieurs heures

La publication de ce rapport intervient alors que Meta, comme d'autres plateformes sociales, est accusé d'avoir tardé à retirer la vidéo de la tuerie de Buffalo. Pour rappel, un jeune homme de 18 ans a assassiné samedi 14 mai 2022 dix personnes dans un supermarché et a justifié son geste par la thèse racialiste du « grand remplacement ». Il avait diffusé en direct l'attaque sur Twitch durant deux minutes avant que le service d'Amazon ne coupe le signal et ne suspende le compte.

Des copies de la vidéo ont circulé sur Facebook, et selon les informations du Washington Post, l'une d'entre elles a été partagée 46 000 fois sur le réseau social avant que la plateforme ne procède à son retrait. Il aura fallu neuf heures pour que Facebook supprime enfin cette copie.

Guy Rosen, vice-président de l'intégrité de Meta, a déclaré publiquement que la plateforme avait toutes les peines du monde à modérer ces contenus violents : « L'un des défis que nous voyons à travers des événements comme celui-ci est que les gens créent de nouveaux contenus, de nouvelles versions, de nouveaux liens externes pour essayer d'échapper à nos politiques et à leur application. » Le groupe indique dans le même temps travailler à améliorer ses outils pour détecter plus efficacement ce type de contenus.

Source : Engadget