Une récente étude montre que Facebook a pu influencer les violences subies par les migrants en Allemagne depuis quelques années.
Karsten Müller et Carlo Schwarz, chercheurs de l'Université de Warwick, ont réalisé une étude afin d'examiner les nombreuses attaques contre les réfugiés ayant eu lieu ces deux dernières années.
Les deux chercheurs ont examiné les richesses, la démographie, le nombre de réfugiés, l'antécédent de crimes haineux, ainsi que de nombreux autres critères pouvant expliquer les 3 335 attaques à l'égard des migrants en Allemagne.
Suite à cette étude, le New York Times a publié un rapport dans lequel il évoque le lien entre les violences faites aux migrants et le réseau social de Mark Zuckerberg.
Facebook renforce les idéologies des utilisateurs sans les confronter à d'autres idées
De fait, un élément principal ressort de ce rapport, le fait que les villes où l'utilisation de Facebook était plus élevée que la moyenne étaient également des lieux où les attaques contre les réfugiés étaient plus nombreuses. Un point qui semble s'appliquer pour de nombreuses communautés, ce qui voudrait dire que cette théorie pourrait s'appliquer plus universellement.Le document indique : « Chaque fois que l'utilisation de Facebook par personne a augmenté d'un écart-type au-dessus de la moyenne nationale, les attaques contre les réfugiés ont augmenté d'environ 50 % ». La taille, le niveau de revenus et de richesse, l'orientation politique de la ville ne seraient pas en lien avec les attaques. Concernant ce point, le rapport détaille qu'à chaque fois que l'accès à Internet, donc à Facebook, a baissé dans une certaine zone géographique (à cause des pannes de courant, par exemple), il en a été de même pour les violences faites aux réfugiés.
Si les violences semblent être en lien avec le réseau social, c'est parce que Facebook met en avant des contenus partagés par des proches ou des personnes connues. Les utilisateurs haineux ont la sensation que cette haine des réfugiés en Allemagne est globale, entraînant un sentiment d'impunité pouvant générer plus de violence.
Pour sa part, Facebook a refusé de commenter l'étude. Néanmoins, le réseau social et ses algorithmes sont régulièrement accusés de favoriser des contenus appréciés par l'utilisateur. En titre d'exemple, un électeur du Rassemblement National ne verra que des contenus en faveur de l'élection d'une personne du parti. À l'inverse, une personne appréciant En Marche verra son fil d'actualité rempli d'informations soutenant le mouvement. De fait, ces deux utilisateurs seront persuadés que le camp qu'ils soutiennent va gagner puisqu'ils n'accèdent qu'aux contenus en faveur du candidat qu'ils soutiennent.
Lorsque vous vous connecterez à Facebook la prochaine fois, pensez-y : sans contradicteur, vous aurez toujours raison... ou toujours tort.