Plus de 140 modérateurs de Facebook au Kenya poursuivent Meta et son sous-traitant Samasource en justice. Diagnostiqués avec un syndrome de stress post-traumatique sévère (SSPTS), ils dénoncent des conditions de travail inhumaines et une rémunération très inférieure à celle de leurs homologues américains.
L'affaire prend racine au Kenya, où des centaines de modérateurs de contenu Facebook ont subi pendant des années l'horreur absolue des réseaux sociaux.
Entre 2019 et 2023, ces travailleurs ont filtré les pires contenus publiés sur la plateforme : meurtres, suicides, abus sexuels sur mineurs, terrorisme. Le Dr Ian Kanyanya, responsable des services de santé mentale à l'hôpital national Kenyatta de Nairobi, a diagnostiqué chez 144 d'entre eux un trouble de stress post-traumatique, un trouble d'anxiété généralisée et un trouble dépressif majeur.
Cette action en justice sans précédent vise directement Meta et son sous-traitant Samasource Kenya, accusés de pratiques d'emploi déloyales et de préjudice moral intentionnel.
Une souffrance psychologique inacceptable pour des travailleurs exposés à la violence
Exposés quotidiennement à des images et vidéos atroces, dont des meurtres et des abus sexuels, les modérateurs subissent des conséquences psychologiques sévères. Le Dr Ian Kanyanya, responsable des services de santé mentale à l'hôpital national Kenyatta, a diagnostiqué 144 modérateurs avec des troubles tels que celui de stress post-traumatique, l'anxiété généralisée et la dépression majeure. Environ 81 % d'entre eux présentent des symptômes sévères ou extrêmement sévères de TSPT, souvent persistants même un an après leur départ.
Les effets sur leur santé mentale sont dévastateurs. Des réactions physiques comme les vomissements et les évanouissements se produisent fréquemment lors de la visualisation de contenus traumatisants. Les modérateurs rapportent également des problèmes relationnels graves, notamment des ruptures familiales et une dépendance accrue à l'alcool ou aux drogues pour gérer leur douleur émotionnelle. La pression constante pour respecter des quotas stricts aggrave leur détresse psychologique, créant un environnement de travail toxique où le bien-être mental est négligé.
Les anciens modérateurs affirment que leur souffrance aurait pu être évitée avec un soutien adéquat et une meilleure gestion du contenu qu'ils étaient contraints de traiter. Ils cherchent désormais à ce que justice soit rendue par le biais du procès, espérant que leurs expériences serviront à sensibiliser sur les dangers associés à la modération du contenu sur les réseaux sociaux.
Conditions de travail inhumaines : entre pression et exploitation
Les conditions dans lesquelles ces modérateurs ont travaillé sont décrites comme inhumaines. Pendant 4 ans, ils ont passé jusqu'à 10 heures par jour dans un environnement froid et austère, sous une surveillance constante qui ne laissait aucune place à l'erreur. Leur rémunération était 8 fois inférieure à celle de leurs homologues américains, malgré le poids émotionnel et psychologique de leur travail.
Les plaintes déposées par ces anciens employés incluent non seulement des allégations d'atteinte à la santé mentale (Meta a déjà été accusée d'altérer celle des jeunes), mais aussi des accusations d'esclavage moderne et de pratiques d'emploi déloyales. Les modérateurs affirment avoir été traités comme des machines plutôt que comme des êtres humains, forcés d'examiner un flux incessant d'images graphiques sans le soutien nécessaire pour faire face aux conséquences psychologiques.
Le procès vise à obtenir non seulement une compensation financière pour les dommages subis, mais aussi à obliger Meta à revoir ses pratiques en matière de modération du contenu. Les plaignants espèrent que cette action en justice incitera l'entreprise à mettre en place des mesures de soutien psychologique adéquates pour ses employés dans le monde entier.
Martha Dark, fondatrice de Foxglove, une organisation qui soutient cette action en justice, pointe l'urgence d'une réforme dans la manière dont les entreprises technologiques gèrent la modération du contenu. Elle affirme : « Au Kenya, 100 % des centaines d'anciens modérateurs testés pour le syndrome de stress post-traumatique ont été traumatisés… Dans n'importe quel autre secteur, si nous découvrions que 100 % des travailleurs de la sécurité étaient diagnostiqués avec une maladie causée par leur travail, les personnes responsables seraient obligées de démissionner et de faire face aux conséquences juridiques de violations massives des droits des personnes. »
De son côté, Meta assure avoir pris certaines mesures pour répondre aux problèmes de santé mentale des modérateurs, notamment en offrant des programmes de soutien psychologique, des ressources en santé mentale et des techniques pour réduire l'exposition à des contenus violents. L'entreprise affirme fournir des salaires supérieurs à ceux du marché et exige des sous-traitants qu'ils offrent un encadrement psychologique.
Ces initiatives sont par ailleurs critiquées et ne font pas plier les modérateurs, qui persistent et signent en maintenant leurs plaintes.
Source : The Guardian