Des vidéos de violence extrême, des contenus explicites et des images choquantes ont envahi les fils Instagram de nombreux utilisateurs ces derniers jours. Ce phénomène mondial n'est pas le fruit du hasard mais bien d'une erreur technique, comme l'a confirmé Meta.

© Shutterstock
© Shutterstock

L'entreprise de Mark Zuckerberg a présenté ses excuses pour cette défaillance qui a exposé de nombreux internautes à des contenus traumatisants, même lorsque les paramètres de contrôle étaient activés au maximum.

Instagram
  • Des interactions faciles par de nombreux canaux (publications, Stories, messagerie, etc.)
  • Un réseau social adapté aux préférences des utilisateurs dans la gestion de leur compte
  • De nombreux types de contenus à créer, à partager et à consulter
9 / 10

Une vague de contenus inappropriés sans précédent

Depuis mardi soir, les témoignages se multiplient sur les réseaux sociaux. Des utilisateurs du monde entier rapportent une augmentation soudaine de vidéos violentes, explicites et inappropriées dans leur section Reels. Ces contenus sensibles apparaissent après seulement quelques vidéos « normales », créant un effet de surprise particulièrement dérangeant.

Le plus inquiétant reste que ces contenus choquants parviennent à s'afficher malgré l'activation du « Contrôle du contenu sensible » dans les paramètres, censé filtrer ce type de publications. Certaines vidéos portent bien l'étiquette « Contenu sensible », mais s'affichent quand même dans les fils d'actualité.

Face à l'ampleur des réactions, Meta a rapidement réagi en reconnaissant une erreur technique. « Nous avons corrigé une erreur qui a fait que certains utilisateurs ont vu dans leur fil Instagram Reels du contenu qui n'aurait pas dû être recommandé. Nous nous excusons pour cette erreur », a déclaré un porte-parole de Meta dans un communiqué.

© Shutterstock

Cette prise de position intervient après que de nombreux utilisateurs aient signalé avoir été exposés à des vidéos montrant des scènes de blessures graves, des corps sans vie et des attaques violentes. Certains internautes ont même comparé Instagram au « Dark Web » tant les contenus affichés étaient extrêmes.

Selon la politique de Meta, l'entreprise s'engage normalement à protéger les utilisateurs des images perturbantes et à supprimer les contenus particulièrement violents ou graphiques. Sont notamment interdits les vidéos montrant « des démembrements, des organes internes visibles ou des corps calcinés », ainsi que les publications contenant des « commentaires cruels sur la souffrance des humains et des animaux ».

Des questions sur la modération des contenus

Cet incident soulève des interrogations sur les systèmes de modération de Meta, d'autant qu'il survient peu après un changement majeur dans l'approche de l'entreprise concernant la gestion des contenus.

En janvier dernier, Meta a mis fin à ses partenariats avec des vérificateurs de faits aux États-Unis pour adopter un système de « Notes communautaires », similaire à celui utilisé par X (anciennement Twitter). L'entreprise a également assoupli certaines restrictions concernant les discours liés au genre et à l'immigration.

Des experts suggèrent qu'une défaillance dans le système de modération basé sur l'intelligence artificielle pourrait être responsable de cet incident. Instagram s'appuie en effet sur l'IA pour analyser et restreindre les contenus sensibles, mais un dysfonctionnement pourrait avoir permis à des vidéos violentes de passer entre les mailles du filet.

Pour les 2 milliards d'utilisateurs mensuels d'Instagram, dont beaucoup passent près de la moitié de leur temps sur la plateforme à visionner des Reels (avec plus de 17,6 millions d'heures de visionnage quotidien), cette défaillance technique a eu un impact considérable. Reste à voir si Meta renforcera ses systèmes de modération pour éviter qu'un tel incident ne se reproduise à l'avenir.

Source : Engadget