Le CSA tente de décrypter les algorithmes de recommandation de YouTube

Bastien Contreras
Publié le 14 novembre 2019 à 19h27
Recommandation YouTube lecture automatique

Dans une étude s'intéressant à la diversité des informations proposées sur YouTube, le CSA a analysé le comportement de ses algorithmes de recommandation. D'après l'autorité, la plateforme aurait tendance à privilégier les contenus défendant une opinion similaire à la vidéo de départ.

Les réseaux sociaux offrent-ils un espace d'information pluraliste aux citoyens ? C'est la question sur laquelle s'est penchée le Conseil supérieur de l'audiovisuel (CSA), en concentrant son étude sur YouTube. Plus précisément, l'autorité a tenté de comprendre les algorithmes sélectionnant les vidéos qui se lancent en lecture automatique, une fonctionnalité qui « se rapproche ainsi de la diffusion linéaire en télévision ».

YouTube constitue-t-il un média d'information fiable ?

Pour cela, elle a demandé à 39 membres volontaires, ainsi qu'à quatre nouveaux profils créés pour l'occasion, de regarder des vidéos en utilisant leur compte Google. Ces contenus tournaient autour de 23 sujets identifiés comme « présentant un clivage d'opinion marqué », tels que le véganisme, la laïcité, ou encore la drague de rue. Au total, l'organisme a ainsi pu étudier un peu plus de 39 000 recommandations.

L'idée du CSA, en tant que gendarme de l'audiovisuel (secteur qui pourrait bientôt inclure YouTube), était de vérifier si la plateforme respectait le « caractère pluraliste de l'expression des courants de pensée et d'opinion », un principe auquel doivent se contraindre les autres médias régulés par l'autorité. La question sous-jacente était : dans quelle mesure les citoyens peuvent-ils faire confiance à YouTube pour s'informer ?


Le phénomène de la « chambre d'écho »

Les conclusions du rapport permettent de diviser les recommandations en deux parties. Tout d'abord, la sélection des deux premières vidéos présentées automatiquement semble s'effectuer en accordant une importance particulière « aux mots-clés associés au thème de départ », ainsi qu'à l'engagement des communautés. Ici, le nombre de vues et la date de publication paraissent donc jouer un rôle moins crucial.

Mais le CSA note surtout que plus d'un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ ». Il existerait donc un risque de « chambre d'écho », c'est-à-dire la répétition d'une seule et même idée, au détriment d'autres points de vue, confortant ainsi l'utilisateur dans ses certitudes.

En revanche, il y aurait une bascule à partir du troisième contenu recommandé. Les outils auraient alors tendance à s'éloigner du sujet de départ, privilégiant des vidéos majoritairement récentes et avec un grand nombre de vues.

Si le CSA lui-même, invite à ne pas généraliser ces résultats à l'ensemble des algorithmes, il met cependant en avant la nécessité d'une plus grande transparence. De son côté, YouTube a affirmé que son moteur de recommandation a « considérablement évolué » depuis les tests, effectués l'an dernier. La plateforme aurait ainsi pris diverses mesures pour lutter contre la désinformation, en mettant par exemple en avant davantage de « sources faisant autorité ».

Source : CSA
Bastien Contreras
Par Bastien Contreras

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autres surprises, que vous pourrez découvrir à travers mes articles... Et je suis là aussi si vous voulez parler actu sportive, notamment foot. Pour ceux qui ne connaissent pas, c'est comme du FIFA, mais ça fait plus mal aux jambes.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (5)
wannted

Youtube c’est une plateforme où chacun peut y uploader n’importe quoi. Pour moi ce n’est pas un media au même titre qu’une chaine de TV

Je vois pas en quoi ils devraient intervenir dans ce que je choisis de regarder et autre conneries de courants de pensées. Si Youtube devient aussi lisse que les chaines de TV je pleure.

Mais le CSA note surtout que plus d’un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ ». Il existerait donc un risque de « chambre d’écho », c’est-à-dire la répétition d’une seule et même idée, au détriment d’autres points de vue, confortant ainsi l’utilisateur dans ses certitudes.

Heuresement qu’Il y a une barre de recherche pour ça…

Mais le CSA note surtout que plus d’un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ »

Et si ça se trouve c’est exactement ce que je veux non ?

Et puis si l’on laisse à Google le choix des sujets qui vont s’afficher par la suite c’est pas un peu dangereux ? D’abord on va forcer Google à agir sur les sujets mis en avant, puis pour s’assurer que le travail est bien fait l’etat va mettre son nez dedans ?

C’est plutot une étude le CSA montre qu’il veut être utile sur internet

D’après l’autorité, la plateforme aurait tendance à privilégier les contenus défendant une opinion similaire à la vidéo de départ.

Un peu comme les articles de presse sur internet, entrecoupé de liens vers des articles au sujet similaire.

z-spy

Pour ma part, il m’est juste arrivé un truc, je sais, c’est juste improbable, C’est du pur hasard… Mais, je pensais à une chose, j’ouvre ma page YouTube et paf, ce à quoi je pensais était en suggestion !
Si ça se reproduit plusieurs fois, je commencerai à me poser des questions.

LeGrosWinnie

T’as pas anti gouvernement toi par hasard ?
Ce que le CSA veut juste pointer du doigt c’est que dès lors qu’un outil te passe automatiquement des vidéos à la chaîne si elles sont toutes en mode « extrémisme » ça a un effet lavage de cerveau.

D’un point de vue intellectuel il est largement plus pertinent d’avoir 2 opinions différentes sur un sujet de toute façon (sauf on cherche un truc scientifique, spécifique, etc.).

Peter_Vilmen

« la plateforme aurait tendance à privilégier les contenus défendant une opinion similaire à la vidéo de départ. »

L’être humain a tendance à privilégier les contenus défendant une opinion similaire à la sienne, à partir de là…

wannted

T’as pas anti gouvernement toi par hasard

Non

D’un point de vue intellectuel il est largement plus pertinent d’avoir 2 opinions différentes sur un sujet de toute façon (sauf on cherche un truc scientifique, spécifique, etc.)

Je suis totalement d’accord. Mais pour moi ce n’est pas à l’état de réguler ça.

Je vois pas en quoi l’affichage de videos faites par des particuliers doivent être régulé que ce soit sur des sujets clivants ou des trucs tout bêtes comme de la menuiserie, de la peinture etc…

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles