Dans une étude s'intéressant à la diversité des informations proposées sur YouTube, le CSA a analysé le comportement de ses algorithmes de recommandation. D'après l'autorité, la plateforme aurait tendance à privilégier les contenus défendant une opinion similaire à la vidéo de départ.
Les réseaux sociaux offrent-ils un espace d'information pluraliste aux citoyens ? C'est la question sur laquelle s'est penchée le Conseil supérieur de l'audiovisuel (CSA), en concentrant son étude sur YouTube. Plus précisément, l'autorité a tenté de comprendre les algorithmes sélectionnant les vidéos qui se lancent en lecture automatique, une fonctionnalité qui « se rapproche ainsi de la diffusion linéaire en télévision ».
YouTube constitue-t-il un média d'information fiable ?
Pour cela, elle a demandé à 39 membres volontaires, ainsi qu'à quatre nouveaux profils créés pour l'occasion, de regarder des vidéos en utilisant leur compte Google. Ces contenus tournaient autour de 23 sujets identifiés comme « présentant un clivage d'opinion marqué », tels que le véganisme, la laïcité, ou encore la drague de rue. Au total, l'organisme a ainsi pu étudier un peu plus de 39 000 recommandations.L'idée du CSA, en tant que gendarme de l'audiovisuel (secteur qui pourrait bientôt inclure YouTube), était de vérifier si la plateforme respectait le « caractère pluraliste de l'expression des courants de pensée et d'opinion », un principe auquel doivent se contraindre les autres médias régulés par l'autorité. La question sous-jacente était : dans quelle mesure les citoyens peuvent-ils faire confiance à YouTube pour s'informer ?
Le phénomène de la « chambre d'écho »
Les conclusions du rapport permettent de diviser les recommandations en deux parties. Tout d'abord, la sélection des deux premières vidéos présentées automatiquement semble s'effectuer en accordant une importance particulière « aux mots-clés associés au thème de départ », ainsi qu'à l'engagement des communautés. Ici, le nombre de vues et la date de publication paraissent donc jouer un rôle moins crucial.Mais le CSA note surtout que plus d'un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ ». Il existerait donc un risque de « chambre d'écho », c'est-à-dire la répétition d'une seule et même idée, au détriment d'autres points de vue, confortant ainsi l'utilisateur dans ses certitudes.
En revanche, il y aurait une bascule à partir du troisième contenu recommandé. Les outils auraient alors tendance à s'éloigner du sujet de départ, privilégiant des vidéos majoritairement récentes et avec un grand nombre de vues.
Si le CSA lui-même, invite à ne pas généraliser ces résultats à l'ensemble des algorithmes, il met cependant en avant la nécessité d'une plus grande transparence. De son côté, YouTube a affirmé que son moteur de recommandation a « considérablement évolué » depuis les tests, effectués l'an dernier. La plateforme aurait ainsi pris diverses mesures pour lutter contre la désinformation, en mettant par exemple en avant davantage de « sources faisant autorité ».
Source : CSA