Les plateformes numériques de Meta viennent de redéfinir leur approche du contenu politique qui y transite à travers une refonte algorithmique majeure. Une transformation technique marquant l'abandon total d'une politique de filtrage strict.
La modération des contenus sur les réseaux sociaux constitue un véritable exercice d'équilibriste entre liberté d'expression et contrôle éditorial. Adam Mosseri, responsable d'Instagram, vient de reconnaître explicitement l'impossibilité pratique de définir une frontière nette pour le contenu politique sur Instagram et Threads.
« Il s'est avéré impraticable de tracer une ligne rouge entre ce qui relève ou non du contenu politique » a-t-il expliqué. Une annonce qui traduit les limites d'une approche binaire de la modération et qui résonne également comme l'aveu d'un échec technique face à la complexité du réel. On peut y voir aussi un prélude à une réorganisation plus profonde des plateformes de Meta, qui marque une rupture nette avec leur positionnement antérieur, qui privilégiait la distanciation vis-à-vis des débats politiques.
Les algorithmes au cœur de la gouvernance numérique
La nouvelle architecture de modération déployée par Meta est assez inédite dans l'approche du contenu politique sur les réseaux sociaux. Le système tripartite mis en place – décliné en modes restreint, standard et enrichi – représente une innovation substantielle dans le traitement algorithmique de l'information. On imagine qu'en mode restreint, l'algorithme limite drastiquement l'exposition aux contenus politiques dans les fils d'actualité et les recommandations. Les autres modes pourraient ainsi exposer les utilisateurs à du contenu sur la thématique politique bien plus dense.
L'introduction de ces paliers de visibilité offre également à Meta une certaine latitude technique et politique dans la gestion de ses deux plateformes. Face aux régulateurs, l'entreprise pourrait désormais ajuster finement son degré d'intervention sur les contenus politiques, évitant ainsi les accusations de censure tout en maintenant un certain contrôle éditorial. Cette flexibilité algorithmique constitue un outil de choix dans les négociations avec les instances régulatrices, permettant des ajustements rapides en fonction des exigences légales et politiques. Malin !
Meta rebat les cartes en interne
Les changements structurels au sein de Meta dessinent une nouvelle orientation pour l'entreprise. Le remplacement de Nick Clegg par Joel Kaplan, personnalité proche des cercles républicains washingtoniens, à la présidence des affaires internationales, s'accompagne d'autres mesures. Notamment l'abandon d'un modèle de modération inspiré des Community Notes de X, conjuguée à l'abandon du fact-checking externe. En réalité, cette évolution traduit moins une simplification du processus qu'une redistribution stratégique des responsabilités éditoriales.
Autre symptôme : le blocage prolongé des hashtags LGBTQ (un fait relayé avant-hier par Engadget) sur Instagram, catégorisés pendant plusieurs mois comme « contenu sexuellement suggestif », révélant les angles morts des systèmes de modération automatisée. Les équipes de Meta ont qualifié l'incident technique, une explication qui masque la réalité plus complexe des mécanismes de classification des contenus. Les algorithmes, entraînés sur des bases de données massives, reproduisent parfois des schémas de discrimination ancrés dans leurs données d'apprentissage.
The Guardian en parlait déjà en 2019 dans cet article : « Les communautés LGBTQ+ et celles prônant la body positivity sur Instagram demandent une plus grande transparence sur les critères de modération, qu'elles jugent discriminatoires envers leurs représentations ». L'affaire ne date donc pas d'hier.
Ces modifications algorithmiques sont la preuve qu'un repositionnement de Meta dans l'échiquier politique américain est un train d'avoir lieu. Échiquier où la frontière entre neutralité technologique et influence politique devient de plus en plus mince, et sur lequel le groupe de Zuckerberg veut poser ses pièces au bon endroit.
Source : Engadget