Un document dévoile les principes de modération de Facebook

Audrey Oeillet
Publié le 22 février 2012 à 18h19
Un document fuité d'une entreprise travaillant avec Facebook vient d'être mis en ligne, et dévoile en détail les règles appliquées par le réseau social en matière de modération de contenu : de quoi lever le voile sur cette dimension, jusque-là mystérieuse, du site aux 850 millions de comptes.

Si Facebook opère bel et bien une modération de son contenu, ce dernier sucite parfois débats et polémiques : on se souvient de la désactivation du compte d'un utilisateur ayant publié le tableau L'Origine du Monde de Gustave Courbet en guise de photo de profil ou, plus récemment, de la censure de photos de mères donnant le sein à leur enfant. Des exemples parmi tant d'autres, pas toujours parfaitement compréhensibles quand on voit parfois la teneur de certaines pages accessibles sur le réseau social.

Le document de 13 pages publié aujourd'hui par Gawker permet d'en apprendre beaucoup sur les pratiques de Facebook concernant la modération du contenu, qu'elles soient pertinentes, ambigües ou rocambolesques. Destiné à oDesk, une entreprise qui travaille pour Facebook, le fichier donne des détails sur les thématiques et autres photos susceptibles d'être signalées par les utilisateurs, et dont il faut prendre l'éventuelle suppression en considération.

01C2000004974474-photo-facebook-mod-ration.jpg

On apprend par exemple que si la version 6.1 du document indiquait que toute présence de « fluide corporel » devait être bannie des photos mises en ligne sur le réseau social, la présente version, la 6.2, stipule que « les fluides corporels (à l'exception du sperme) peuvent être montrés, à moins qu'un être humain soit présent dans la scène ». Dans un autre ordre d'idée, les photos mettant de la drogue en avant sont interdites, à l'exception de la marijuana, « sauf s'il est clair que l'utilisateur en vend, en achète ou en fait pousser ». Les photos modifiées sont également modérées si les montages se montrent péjoratifs pour une personne.

La « simple » liste des éléments à modérer, située en page 4 du document, dévoile des éléments moins cocasses mais cependant révélateurs : les photos mettant en scène des pratiques sexuelles sont interdites, même si les parties intimes sont masquées. La nudité est autorisée si les mêmes parties intimes sont masquées - les tétons masculins faisant office d'exception ici puisqu'ils peuvent être montrés. Par ailleurs, les photos d'enfants nus ou en sous-vêtements sont non seulement supprimées, mais font également l'objet d'une enquête approfondie au même titre que les contenus zoophiles ou nécrophiles - à noter que cela concerne les photos, mais également les illustrations.

Des cas spécifiques, d'autres plus ambigus

Les situations de modérations sont globalement à valeur générale, mais on trouve tout de même certains cas spécifiques, comme celui de la Turquie. Le réseau social demande ainsi le signalement automatique des « attaques contre Atatürk », « cartes du Kurdistan » ou encore des photos de « drapeaux turcs enflammés ». Par contre, sont autorisés les contenus s'opposant au PKK - parti des travailleurs du Kurdistan, considéré comme un groupe terroriste par les USA et l'UE - où à son fondateur Abdullah “Apo” Ocalan.

Dans d'autres situations, si le document multiplie les exemples, on a parfois du mal à saisir la subtilité qui permet de différencier le contenu à modérer et celui à laisser en place : c'est le cas notamment du contenu texte à caractère sexuel. Le fichier explique qu'il est possible de parler de sexualité, mais qu'il est interdit de décrire un acte sexuel et de solliciter ou proposer une prestation. Et là, les exemples, visibles en page 7, ne sont pas forcément très clairs et laissent penser que l'interprétation du modérateur peut entraîner des décisions différentes selon les situations. Par contre, quand les termes sont utilisés pour « insulter ou faire une plaisanterie », ils peuvent être laissés en place.

Dans un autre ordre d'idée, tout aussi étrange, « les blessures profondes » et les « têtes et membres écrasés » sont autorisés en photo, à condition qu'aucun organe interne n'apparaisse.

Modérer, ne pas modérer, signaler...

00FA000004974276-photo-facebook-valuation-d-une-menace.jpg
Très complet, le document met en avant pléthore d'éléments et de situations qui nécessitent une modération, mais également, pour certains, un signalement au niveau supérieur - sans doute à Facebook, dans la mesure où ce document est à destination d'une entreprise de sous-traitance. La page 8 détaille d'ailleurs la méthode à employer pour évaluer une menace signalée par les utilisateurs du réseau social : la cible est-elle une personne déjà victime de tentatives d'assassinat, y a-t-il des détails concernant une action précise, etc. Les menaces détaillées sont considérées comme à signaler tandis que les menaces évasives de type « Je vais faire exploser la planète le soir du réveillon du jour de l'an » sont à ignorer.

D'autres éléments, avant d'être signalés, nécessitent une étude un peu plus approfondie : le document appelle cela « le fardeau de l'éclaircissement des utilisateurs », et explique que, dans certains cas, un contenu peut à première vue être une violation des règles du site mais que sa légende ou un autre contenu lié peut démontrer le contraire. Dans ce type de cas, le modérateur doit s'assurer que l'utilisateur justifie clairement sa démarche en démontrant que le contenu n'est pas une violation des règles : c'est le cas, par exemple, de l'usage de « symboles de violence » comme la croix gammée, les photos de Hitler ou de Ben Laden, les photos mettant en avant la violence humaine ou animal, la mutilation, la drogue... en sommes, si certains contenus sont automatiquement supprimés, d'autres, dans certains cas, peuvent éventuellement entrainer un débat.

La sous-traitance à petit prix

Outre les révélations faites par ce document, sa mise en ligne souligne un autre fait important pour Facebook, puisqu'il indique le réseau social fait sous-traiter la modération de son contenu par des entreprises tierces. En l'occurrence, le fichier a été mis en ligne par un Marocain de 21 ans, ancien employé de oDesk, qui a choisi ce moyen pour exprimer son mécontentement, expliquant avoir été payé 1 dollar de l'heure pour suivre les signalements effectués par les membres du site. « C'est humiliant, ils exploitent le tiers-monde » a-t-il commenté. Interrogé par le Guardian, un porte-parole de Facebook a précisé que la sous-traitance était nécessaire pour garantir un suivi efficace des alertes effectuées sur le site, et que ce dernier cherchait en permanence à améliorer la situation.

Pour découvrir d'autres détails émanant du très dense document, le meilleur moyen est encore de le consulter : il est disponible dans son intégralité ci-dessous.

Abuse Standards 6.2 - Operation Manual
Audrey Oeillet
Par Audrey Oeillet

Journaliste mais geekette avant tout, je m'intéresse aussi bien à la dernière tablette innovante qu'aux réseaux sociaux, aux offres mobiles, aux périphériques gamers ou encore aux livres électroniques, sans oublier les gadgets et autres actualités insolites liées à l'univers du hi-tech. Et comme il n'y a pas que les z'Internets dans la vie, j'aime aussi les jeux vidéo, les comics, la littérature SF, les séries télé et les chats. Et les poneys, évidemment.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles