Plusieurs familles de victimes d'une tuerie de masse aux États-Unis portent plainte contre ces plateformes.
Ces plaintes considèrent que les règles de sécurité des plateformes sont largement défaillantes et dangereuses, et partiellement responsables d'une fusillade raciste ayant eu lieu dans une supérette de Buffalo dans l'État de New York, l'année dernière. Le tireur, qui reconnaît s'être radicalisé en ligne, a utilisé plusieurs plateformes sociales avant et pendant son raid meurtrier, sans véritablement être inquiété par aucune modération.
Les termes du procès
Il y a un peu plus d'un an, un jeune homme blanc parcourait plus de 300 kilomètres pour aller tuer dix personnes dans une supérette de Buffalo, après avoir recherché sur Google les quartiers à population majoritairement noire de la ville. L'homme avait planifié son action sur Discord pendant des mois, et l'a diffusée en direct sur Twitch.
Dans l'énoncé de la plainte, qui accuse donc Meta, Instagram, Reddit, Google, YouTube, Snapchat, 4Chan, Twitch et Discord, les plaignants rappellent que « Gendron [le nom du tireur], de son propre aveu, n'était pas raciste avant de devenir addict aux réseaux sociaux et de se faire attirer dans un vortex psychologique par des réseaux sociaux défaillants […] et de recevoir un flux constant de propagande raciste et de suprémacistes blancs ». C'est ainsi la théorie raciste du Grand Remplacement qui aurait poussé Gendron à passer à l'acte, ce qui n'est pas une première sur les réseaux sociaux. Pour ajouter à l'horreur, la mère d'une des victimes aurait été taggée sur l'une des vidéos du massacre massivement partagée en ligne.
Les plaignants demandent donc aux entreprises concernées des dommages et intérêts, mais aussi et surtout un changement profond de leurs politiques de sécurité du contenu.
Les défaillances des réseaux sociaux
La prolifération de la désinformation et des théories du complot n'est pas exactement une nouveauté sur les réseaux sociaux, comme l'a démontré de façon éclatante la période des confinements. Mais c'était déjà largement clair avant, et nombreux parmi les auteurs de tueries de masse sont ceux qui s'y étaient radicalisés, voire avaient posté un plan ou un manifeste en ligne, souvent sur 4chan, avant de passer à l'acte.
Ainsi, en 2019, un chercheur employé par Facebook avait découvert que les profils considérés comme conservateurs pouvait être exposés à du contenu complotiste au bout de seulement deux jours sur la plateforme. La faute à son algorithme, qui enferme les utilisateurs dans des contenus de plus en plus spécifiques basés sur leurs intérêts et leur alignement politique. Rappelons d'ailleurs que Meta est accusé de complicité dans non pas un mais deux procès pour crime contre l'humanité, précisément pour cette raison.
Reddit, qui fut longtemps un terrain de jeu parfait pour les complotistes et extrémistes, a pris d'importantes mesures sur la question ces dernières années, tout en restant dans un entre-deux inconfortable au nom de la liberté d'expression.
De son côté, une porte-parole de Snapchat a expliqué que la plateforme « ne laisse pas le contenu non modéré devenir viral par algorithme. Au contraire, nous modérons tous les contenus avant qu'ils puissent atteindre une large audience, ce qui limite la chance de découvrir du contenu dangereux ». Un représentant de YouTube a également réagi : « depuis des années, nous investissons dans la technologie, les équipes et les politiques pour repérer et retirer le contenu extrémiste. Nous collaborons régulièrement avec les forces de l'ordre et la société civile pour partager les informations et les bonnes pratiques. »