YouTube

Parmi les contenus visés : les vidéos diffusant les théories de QAnon, mouvance extrêmement populaire outre-Atlantique.

L'élection présidentielle aux États-Unis approche, et les nuisances dues aux théories conspirationnistes alarment. Hier, YouTube a annoncé qu’il supprimerait tous les contenus colportant des théories du complot haineuses ou nuisibles liées à des comportements violents.

Les vidéos complotistes liées à QAnon bannies

En avril dernier, YouTube avait annoncé qu’il supprimerait les vidéos suggérant que la Covid-19 et la 5G étaient liées. Plus récemment, la plateforme décidait de bannir les vidéos affirmant que le futur vaccin contre le coronavirus sera mortel ou rendra infertile, ou bien que des implants seront introduits chez les personnes qui se feront vacciner.

Hier, la plateforme vidéo a pris des mesures plus radicales concernant les vidéos complotistes. Désormais, les contenus visant « un groupe ou des individus en s’appuyant sur des théories conspirationnistes qui ont déjà motivé des actions violentes » seront interdits. Sont notamment visées les vidéos liées à la mouvance QAnon.

Mais comment discerner une vidéo traitant des théories conspirationnistes d'une vidéo qui y adhère ? « Comme toujours, le contexte est important, de sorte que la couverture médiatique de ces questions ou les contenus qui en parlent sans cibler des individus ou des groupes protégés peuvent rester d'actualité » explique YouTube. En effet, lorsqu’on tape « QAnon » dans la barre de recherche de la plateforme, les vidéos proposées dans les premières pages sont des contenus produits par des médias certifiés.

Résultats d'une recherche "Qanon" sur Youtube
Résultats d'une recherche "Qanon" sur Youtube

Entre liberté d'expression et responsabilité des propos

Si YouTube a décidé de durcir sa politique à l’encontre des contenus haineux ou nuisibles, cela n’a pas toujours été le cas. Après avoir subi de nombreuses critiques autour de la prolifération des théories conspirationnistes sur sa plateforme, la compagnie avait consenti à modifier son algorithme de recommandation en janvier 2019. L’objectif : réduire la portée organique de ce type de vidéos.

Si la modification de l’algorithme avait permis de réduire significativement les vues de ces contenus, ces derniers étaient toujours consultables car YouTube considérait qu’ils n’enfreignaient pas sa charte.

De fait, YouTube était devenu un foyer de propagation des théories QAnon, avec des centaines de chaînes et des milliers de vidéos en ligne. Ces théories affirment que Donald Trump est en réalité l’élu destiné à faire tomber un complot d’élites américaines à la tête d’un trafic pédocriminel. Largement répandue aux États-Unis, cette mouvance a notamment été classée comme « potentielle menace terroriste » par le FBI. Ses adhérents pourraient jouer un rôle déterminant dans l’élection présidentielle américaine, qui se tient le 3 novembre prochain.

Source : Neowin