© Michael Vi / Shutterstock
© Michael Vi / Shutterstock

Dans un article publié sur le blog de Meta, un cadre dirigeant de l'entreprise a annoncé la mise en place d'un système coopératif afin de lutter plus efficacement contre les contenus terroristes sur Internet.

Si Meta, comme beaucoup d'entreprises de la tech en 2022, a licencié une large partie de ses effectifs, elle ne fait pas partie de celles qui délaissent la modération. Loin d'être irréprochable en la matière, l'entreprise de Mark Zuckerberg y consacre tout de même des ressources importantes. Alors que le groupe va occuper à partir du mois prochain la présidence du Forum internet mondial de lutte contre le terrorisme (GIFCT en anglais), il dévoile aujourd'hui un projet pour appréhender autrement la modération, appelé Hasher Matcher Actioner (HMA).

Le GIFCT et le bilan 2022 de la modération chez Meta

Nick Clegg, l'un des cadres dirigeants de Meta, a publié un article de blog dans lequel il présente cet outil à l'occasion de la future présidence du GIFCT de l'entreprise. Ce forum est une ONG née en 2017 d'un partenariat entre YouTube, Microsoft, Twitter et Meta. Son objectif est clair : lutter contre la diffusion de contenus terroristes, violents et extrémistes sur Internet. D'autres entreprises, des associations et des gouvernements s'y impliquent activement.

Dans son billet, Clegg présente les chiffres de la modération chez Meta : plus de 40 000 personnes travailleraient à sa bonne application, et l'entreprise y aurait investi plus de 5 milliards de dollars l'année dernière. Il explique également que l'expérience accumulée depuis des années permet d'être plus efficace en la matière et permet la création de nouveaux outils tels que le HMA.

Comment fonctionne le HMA ?

Clegg explique que le HMA repose sur un système et une technologie déjà existants et utilisés par la plupart des grandes plateformes. Concrètement, dès qu'un modérateur repère un contenu qui enfreint les règles, il le supprime et le renseigne dans une base de données. Celle-ci, plutôt que de stocker les images ou les vidéos concernées, n'en garde qu'un « hash », une sorte d'empreinte numérique unique et propre à chaque contenu. Tout média posté sur la plateforme est ensuite comparé à ces « hash » et supprimé ou signalé à la modération si le système trouve une concordance. Cela permet, en plus d'utiliser considérablement moins d'espace de stockage, de ne pas conserver d'images ou de vidéos terroristes, violentes ou pédocriminelles dans sa base de données.

Le système que présente Meta n'est donc pas révolutionnaire, mais sa forme l'est. En effet, la grande innovation ici repose sur sa mise en open source, ce qui permet d'une part aux plus petites entreprises qui en étaient jusqu'ici dépourvues d'avoir accès à cette technologie. Et surtout, cela rend possible la mise en commun des « hash » de toutes les entités qui participent au programme. En effet, comme le rappelle l'auteur du billet, les personnes qui postent ce type de contenu ne se contentent que rarement de le faire sur un unique support. Le succès du HMA reposera donc largement sur son adoption ou non par les plateformes de contenu, quelle que soit leur taille.

Source : Meta