Frances Haugen (© Capture écran vidéo Assemblée nationale)
Frances Haugen (© Capture écran vidéo Assemblée nationale)

L'ex-salariée de Facebook, Frances Haugen, était reçue mercredi à l'Assemblée nationale par les députés, l'occasion pour elle d'en rajouter une couche sur l'impact qu'a le groupe aux multiples réseaux sociaux sur la société.

Frances Haugen a provoqué de sérieux remous chez Facebook. La lanceuse d'alerte, encore salariée du groupe désormais nommé Meta en mai dernier, fut à l'origine de la fuite ayant conduit aux « 

Facebook Files », une sorte de compilation de documents internes à charge contre l'entreprise, transmise à différents médias au début du mois d'octobre. Depuis, elle est en train de faire le tour du monde pour dresser, à chaque fois, un portrait peu idyllique de Facebook, affirmant que l'entreprise « place le profit avant la sécurité » et qu'elle ne lutte pas suffisamment contre les effets ravageurs de la plateforme.

Une méthode en « 1, 2, 3 » pour réguler la modération des contenus hébergés sur Facebook et d'autres grandes plateformes

Mercredi, Frances Hugen était reçue au Palais Bourbon par les membres de la commission des affaires économiques et de la commission des lois. Consciente que son rôle de lanceuse d'alerte peut l'exposer à certains dangers, elle juge « fondamentale » la nécessité de protéger ce statut. L'ancienne salariée de la firme de Mark Zuckerberg a expliqué aux députés avoir d'abord cru au potentiel humaniste de Facebook. Puis elle a enchaîné les remontrances et propositions pour tenter de faire de Facebook un lieu conforme à son aspiration originelle.

Sur le statut même de Facebook et son insertion dans la démocratie, Frances Haugen appelle à davantage de transparence. Citant Meta et d'autres grandes entreprises numériques, elle affirme qu'il faut « que ces entreprises puissent rendre des comptes, il faut de nouvelles règles pour leurs business models. Facebook ne peut pas être à la fois juge, juré, procureur et témoin ».

Concernant la régulation du réseau social, elle a évoqué une méthode en « 1, 2, 3 ». D'abord, c'est à l'entreprise même de mener sa propre évaluation, puis c'est au public (ONG et régulateurs) de faire sa part du travail, et doit enfin être mis en place un mécanisme de suivi, qui consisterait pour l'entreprise à livrer des données, de façon « hebdomadaire », pour mieux protéger les utilisateurs. Sur ce point, la proposition de Frances Haugen semble rejoindre le projet de règlement européen en discussion dans les instances de l'UE, le Digital Services Act, qui prévoit d'instaurer des obligations sur les contenus des réseaux sociaux.

Frances Haugen ne veut en tout cas pas laisser passer l'occasion d'améliorer les choses. « Nous avons une occasion unique de créer de nouvelles règles pour notre monde en ligne. S’il y a deux choses à retenir, c’est premièrement que Facebook choisit les profits sur la sécurité tous les jours, et sans actions fermes cela continuera ; deuxièmement, Facebook continue d’agir dans l’obscurité, et si cela continue des tragédies se produiront. Je suis persuadée qu’il faut agir maintenant », a-t-elle déclaré aux élus.

Un algorithme qui a penché du mauvais côté

La lanceuse d'alerte évoque un virage dangereux pris par Facebook en 2018, rappelant le fait que le réseau social avait essayé « de maximiser le nombre d'interactions », ce qui avait malheureusement conduit à davantage d'interactions teintées de colère et/ou d'intimidation. « Les résultats de ce changement de 2018 ont été négatifs », a-t-elle constaté. En 2018, Facebook avait en effet procédé à un bouleversement de son algorithme de classement des contenus dans le fil d'actualité des utilisateurs. Au départ, Facebook voulait privilégier les contenus publiés par les proches. Mais ce sont en réalité les contenus clivants, souvent politiques, issus de groupes véhiculant parfois des contenus haineux ou de fausses informations, qui furent les mieux mis en avant. Les contenus ont ainsi comme déteint sur l'esprit général des utilisateurs du réseau social.

La solution pour Facebook, selon Frances Haugen, serait de revenir à l'algorithme de 2009, qui priorisait les contenus amicaux et familiaux publiés par son cercle familial/d'amis.

© Pixabay
© Pixabay

L'un des problèmes de modération de Facebook est directement lié à la langue. Pour la lanceuse d'alerte, de nombreuses langues ne sont pas encore couvertes par Facebook. « Même l’anglais britannique n’est pas aussi bien couvert que l’anglais américain, et le français, par exemple, ne bénéficie pas de tous les systèmes de sécurité dont dispose l’anglais », explique-t-elle, ce qui a eu pour conséquence d'accentuer la désinformation autour de la Covid-19 selon elle. L'entreprise semble pourtant progresser sur ce point. Le système automatique de repérage des contenus soumis à modération fonctionne désormais dans 50 langues pour les contenus haineux, et 19 langues pour la désinformation liée à la pandémie. Mais il faut encore faire plus.

Enfin, parmi les thèmes abordés par Franches Haugen, la relative jeunesse de certains des utilisateurs fait partie des problèmes que Meta doit régler. « Facebook a des données qui montrent que 10 à 15 % des enfants de 10 ans sont sur Facebook », déplore la lanceuse d'alerte, qui constate qu'aujourd'hui, « on doit simplement croire Facebook quand l'entreprise nous dit qu'elle travaille sur ce problème ». Et pourtant, Facebook est censé être interdit aux mineurs de moins de 13 ans.

Frances Haugen a terminé son audition en rappelant la nécessité de protéger davantage les lanceurs d'alerte, dont le statut reste encore flou et les conséquences lourdes, sur le plan psychique notamment.