Les cadres de l'entreprise ont volontairement mis fin à un programme montrant comment la plateforme enferme ses utilisateurs dans une chambre d’écho.
Lire l'article sur The Wall Street Journal
Facebook Executives Shut Down Efforts to Make the Site Less Divisive
En quelques mots :
- Mark Zuckerberg a abandonné un programme visant à rendre Facebook moins clivant. Des recherches menées par Facebook en interne en 2018 ont montré que le réseau social rendait ses utilisateurs de plus en plus enclins à adopter des positions extrêmes sur différents types de sujets. Ces recherches proposaient également des pistes pour éviter cet écueil. Mais elles ont été abandonnées sur ordre de Mark Zuckerberg et d’autres cadres de l’entreprise, qui craignaient qu’elles ne donnent mauvaise presse à Facebook. C’est ce que révèle une enquête du Wall Street Journal.
- Le phénomène de la chambre d’écho. Facebook utilise différents types d’algorithmes pour décider quels contenus afficher lorsque les utilisateurs surfent sur le réseau social. L'objectif est notamment de faire en sorte que nous restions le plus longtemps possible sur la plateforme, et pour cela, les algorithmes tendent à exploiter un biais du cerveau humain, qui consiste à préférer les informations qui renforcent nos croyances. Ainsi, ces algorithmes ont tendance à mettre en avant des contenus présentant une version extrême de ce que nous pensons déjà, polarisant ainsi nos attitudes et nos opinions. C’est ce que l’on nomme la chambre d’écho des réseaux sociaux. Par exemple, si les algorithmes détectent qu’un utilisateur exprime des doutes quant à l’efficacité des mesures du confinement, ils risquent de lui montrer des vidéos affirmant que l’épidémie est un complot orchestré par Bill Gates.
- Un autre Facebook est-il possible ? Facebook a été critiqué dernièrement pour le grand nombre de théories conspirationnistes qui ont circulé sur la plateforme depuis le début de la crise sanitaire. Le réseau social s’efforce de trouver un équilibre difficile entre le respect de la liberté d’expression et la lutte contre la circulation d’informations potentiellement dangereuses. Mais comme le montre cette recherche, le problème pourrait résider dans la façon même dont le réseau social fonctionne : parce qu’il s’appuie sur la publicité, il cherche à maximiser le temps que les utilisateurs passent dessus, et donc à leur proposer des contenus polarisés. Facebook devrait donc repenser intégralement son modèle pour résoudre ce problème, chose que Mark Zuckerberg ne semble, pour l’heure, pas prêt à faire.