Facebook serait-il à cran lorsqu'il s'agit de modérer l'afflux de fake news ayant pour objet le Covid-19 ? C'est en tout cas l'avis de nombreux utilisateurs, qui se sont vus supprimer des publications parfaitement légitimes.
Désormais attribuée à un « bug », selon Guy Roser, le Vice-président de l'intégrité (?) de l'entreprise, cette forte agressivité du module anti-spam de Facebook serait en voie de résolution.
Le régulateur de la confidentialité australien entame une action en justice contre Facebook
Facebook étonnamment agressif sur la modération
Sur Twitter, les messages s'étonnant d'avoir vu des posts Facebook en apparence totalement légitimes supprimés fleurissent..@Facebook your review system is broken AF -- This is the 3rd in two weeks "GOES AGAINST OUR COMMUNITY STANDARDS" for a share from a known publication.
— Kristine Schachinger (@schachin) March 17, 2020
Like this one? An @Upworthy post about #GenX w the Breakfast Club movie as the photo? WT? And the others are about the same. pic.twitter.com/CL1jRSz5uO
En réponse à ces messages qui se multiplient, Guy Rosen est monté au créneau, expliquant que le problème était dû non pas aux récents changements de la politique de modération, mais bien à un bug dans « le système anti-spam ».
We've restored all the posts that were incorrectly removed, which included posts on all topics - not just those related to COVID-19. This was an issue with an automated system that removes links to abusive websites, but incorrectly removed a lot of other posts too.
— Guy Rosen (@guyro) March 18, 2020
D'après un message publié hier sur Twitter, tous les posts indûment supprimés auraient été repostés sur Facebook sans plus de cérémonie.
La difficile modération des plateformes à l'heure du confinement
Les mesures de confinement touchent chaque jour davantage de pays. Et les plateformes du Web ne sont pas imperméables à certaines de leurs conséquences.La plus épineuse pour elles est probablement celle du renvoi à leur domicile des petites mains s'occupant de la modération des contenus. Ces employés n'ayant, selon Facebook, pas la possibilité de travailler depuis leur domicile, la modération est laissée entre les mains des seuls algorithmes de l'entreprise.
Si l'on veut bien croire Guy Rosen concernant l'affaire des posts supprimés suite à un bug, il ne fait aucun doute que des erreurs plus graves seront commises dans les prochains jours. La modération humaine n'étant déjà pas exemplaire, il est très peu probable que des « intelligences artificielles » parviennent à séparer le bon grain de l'ivraie.
Un avis visiblement partagé par les plateformes elles-mêmes qui, chacune leur tour, publient un message préventif sur leur blog respectif, s'excusant d'avance des erreurs qui pourront être commises. YouTube, par exemple, admet que ses créateurs « pourront voir davantage de leurs vidéos supprimées, parfois même si elles n'ont pas violé les conditions d'utilisation du service ». Une décision à laquelle ils pourront ensuite faire appel... sans garantie aucune de récupérer un éventuel manque à gagner.
Via : The Verge