© US Congress
© US Congress

Les premiers articles concernant les Facebook Papers, comme sont désormais désignés les documents leakés par la lanceuse d'alerte Frances Haugen, sont sortis et dépeignent une entreprise accaparée par le profit et dépassée par le contenu haineux et violent présent sur son site.

Ces articles sont le résultat d'une collaboration entre plusieurs rédactions du monde entier, qui ont eu accès aux documents de la lanceuse d'alerte.

Facebook n'arrive pas à contrôler les effets de ses propres fonctionnalités

Les fonctionnalités les plus reconnaissables de Facebook – le bouton Like et le partage de publications – ne sont pas aussi innocentes qu'elles pourraient le laisser croire. À la suite de plusieurs recherches, certains employés de Facebook ont tiré la sonnette d'alarme, comme le montre cet article du New York Times. Ils rapportent les effets néfastes du bouton Like, notamment sur les adolescents qui l'utilisent pour se comparer entre eux et sur qui un manque de reconnaissance de leurs publications peut avoir un effet néfaste. Après un essai peu concluant consistant à le retirer pour quelques utilisateurs en 2019, l'entreprise a finalement conclu qu'il était un problème « assez bas sur la longue liste de problèmes que nous avons besoin de résoudre ».

Le système de partage a également fait l'objet de plusieurs recherches en interne. Les chercheurs ont conclu qu'il permettait aux utilisateurs de partager très rapidement de la désinformation, amplifiée par des systèmes de recommandation et de mise en avant de contenus partagés par les amis des utilisateurs. Le système de recommandation de groupes et pages a aussi été dénoncé par un chercheur, qui l'accusait de conduire les utilisateurs sur la voie des théories du complot. Depuis, quelques actions ont été entreprises par Facebook, pour permettre aux utilisateurs de cacher des posts ou de ne plus recevoir de recommandations de groupes politiques. Rien ne modifiant fondamentalement le fonctionnement du site, qui était pourtant ce qui était mis en cause par les employés.

Facebook n'arrive pas à protéger ses utilisateurs non-anglophones

Les articles de Reuters et du Monde se concentrent eux sur l'incapacité de Facebook à modérer correctement le contenu non-anglophone, particulièrement dans les pays les plus fragiles. Utilisé dans plus de 190 pays, le réseau social n'a pas les moyens de modérer correctement dans la plupart d'entre eux, alors même que le rôle de la plateforme dans la violence exercée dans certains de ces pays est reconnu. Pourtant, Facebook établit une liste tous les six mois des pays considérés comme à risque. Mais que ce soit au niveau de ses modérateurs humains ou de ses intelligences artificielles, l'entreprise a échoué de façon répétée à contrôler les propos haineux et la désinformation.

Les documents récupérés par les rédactions montrent que l'entreprise ne possédait pas en 2020 les outils nécessaires pour une détection automatique des posts contenant de la désinformation ou des propos haineux faits en birman pour la Birmanie, ou en oromo et amharique pour l'Ethiopie, deux pays considérés comme à risque. Pourtant, dès 2018, les Nations Unies avaient déjà souligné le rôle du réseau social dans la propagation de contenus haineux contre les Rohingyas en Birmanie. De son côté, Reuters note avoir trouvé de nombreuses publications en amharique sur le site, désignant des groupes ethniques comme étant des ennemis et contenant plusieurs menaces de mort.

Les documents soulignent les mêmes problèmes dans d'autres pays, comme l'Inde où plusieurs modérateurs ont exprimé en 2021 leur inquiétude face à la montée de posts appelant à la violence contre les musulmans. Ils alertent sur le fait que les algorithmes ne sont pas équipés pour détecter les termes haineux ou violents en hindi ou en bengali. Les mêmes inquiétudes concernant l'incapacité de détecter automatiquement les posts haineux ou violents ont été rapportées pour le Pakistan, l'Iran ou l'Afghanistan.

Le Monde se concentre sur les problèmes récurrents dans les pays arabophones, où l'entreprise cumule un manque de modérateurs humains capables de modérer les contenus et une intelligence artificielle qui se trompe très régulièrement et supprime des contenus tout à fait légitimes, ce qui conduit à une censure récurrente des utilisateurs. Les employés ont pourtant lancé l'alerte, soulignant le risque de violence dans ces pays amplifié par le réseau social, et l'importance d'un système de modération solide. En vain semblerait-il, une porte-parole de Facebook ayant admis qu'il restait encore du travail dans ce domaine.

Les décisions de Mark Zuckerberg mettent les utilisateurs en danger

L'article du Washington Post se concentre par ailleurs sur les décisions prises personnellement par le CEO de Facebook, Mark Zuckerberg. Ce serait notamment lui qui aurait décidé au final de répondre positivement aux demandes du gouvernement vietnamien qui réclamait plus de censure des publications qui le critiquaient. L'alternative étant l'interdiction pour Facebook d'opérer dans le pays, le CEO a préféré obtempérer, le Vietnam représentant plus d'un milliard de revenus annuels pour la firme, d'après une estimation d'Amnesty International.

Il aurait également sciemment menti au Congrès américain en déclarant que l'entreprise supprimait 94 % des contenus haineux, quand des recherches internes, auxquelles il avait accès, avancent plutôt le chiffre de 5 %. Lorsque des employés de WhatsApp ont proposé de faire une version en espagnol du centre d'informations sur les élections développé par Facebook pour les élections américaines de 2020, c'est le patron lui-même qui s'y est opposé, déclarant que ce n'était pas « assez neutre politiquement ». Il a également rejeté les propositions des chercheurs de l'entreprise pour réduire la désinformation sur le coronavirus dans les premiers mois de la pandémie.

À la suite de plusieurs décisions prises par le fondateur du réseau social, des membres de l'équipe chargée d'atténuer les préjudices causés par la plateforme ont quitté leur rôle en 2019. « Notre existence-même est fondamentalement opposée aux objectifs de l'entreprise, aux objectifs de Mark Zuckerberg », a déclaré l'un de ces employés. Une vision corroborée par l'article du New York Times, dans lequel plusieurs cadres de la société confirment que plusieurs changements proposés pour limiter la désinformation ont été bloqués au nom de la croissance.

Source : Engadget