© Solen Feyissa / Shutterstock
© Solen Feyissa / Shutterstock

Une enquête en profondeur menée par des chercheurs des universités du Massachusetts et de Stanford ainsi que le Wall Street Journal s'intéresse à la présence de contenu pédopornographique sur Instagram.

Le résultat est pour le moins édifiant.

Pas moins de 490 000 comptes supprimés… rien qu'en janvier 2023

C'est une enquête qui fait pour le moins froid dans le dos que viennent de conjointement publier le Wall Street Journal et des chercheurs de l'université du Massachusetts ainsi que de Stanford. En effet, ces derniers arrivent à la conclusion, dans les grandes lignes, que l'algorithme d'Instagram connaîtrait de sérieuses lacunes quant à la détection de la pornographie infantile… au point d'en faire la promotion à l'aide de ce même algorithme. Le principe, malheureusement simple, en revient toujours au même. Comme bon nombre d'algorithmes, celui-ci d'Instagram tente d'adapter votre fil et l'onglet Explorer avec des suggestions de contenus que vous seriez en mesure d'apprécier.

© mundissima / Shutterstock
© mundissima / Shutterstock

Le problème ici est donc que même dans le cas de contenus identifiés comme de la pornographie infantile, l'algorithme œuvre de la même manière. À force d'en rechercher (et d'en trouver…), les recommandations suivent en ce sens. Comme le conclut l'enquête, le problème d'autant plus grave est que contrairement à un forum nauséabond, Instagram et son algorithme, en suggérant ces contenus, font leur « promotion » malgré eux, comme tout autre type de sujet.

Le tout se fait sans grande difficulté pour l'individu en quête de ce type de contenu, puisque « suivre juste une poignée de ces recommandations était suffisant pour inonder un compte de test avec du contenu qui sexualise les enfants », d'après l'article paru dans le Wall Street Journal.

Meta prétend pourtant ne pas chômer dans la lutte contre les contenus CSAM

En plus, l'université de Stanford, dans son Observatoire d'Internet, compte dans ses rangs l'un des anciens responsables de la sécurité chez Meta, Alex Stamos. Celui-ci, étonné du résultat de cette enquête, estime que « le fait qu'une équipe de trois universitaires avec un accès limité puisse trouver un réseau aussi vaste devrait déclencher des alarmes chez Meta ».

Meta déclare justement déjà s'employer fortement dans la lutte contre la pornographie infantile, avec pas moins de 490 000 comptes enfreignant sa politique relative à la sécurité infantile supprimés rien qu'en janvier 2023, et de nombreux hashtags utilisés à cette fin bloqués. 27 réseaux pédophiles auraient également été repérés et démantelés au cours des deux dernières années.

Si les chercheurs et enquêteurs ont annoncé avoir trouvé trois fois plus de comptes proposant à la vente du contenu pédopornographique sur Instagram que sur Twitter, ils relativisent cette donnée par rapport au réseau social à l'oiseau bleu, car ce dernier possède moins d'utilisateurs qu'Instagram. La plateforme de Meta se défend en déclarant que ses statistiques internes ne comptabilisent pas plus de 1 post sur 10 000 relatif à du contenu CSAM. Enfin, l'efficacité du signalement du contenu pédopornographique aux équipes d'Instagram est également mise en cause à l'issue de cette enquête.

Sources : The Verge, Engadget