Massivement utilisé par un public jeune, le réseau social TikTok est particulièrement toxique, selon la société NewsGuard, en ce qu'il héberge de nombreux contenus assimilables à de la désinformation.
La dernière enquête de NewsGuard nous alerte sur la diffusion, dans des vidéos TikTok, d'informations fausses et dangereuses sur la COVID-19, mais pas que, auprès d'un public parfois très jeune. L'organisation, qui lutte contre les fake news, accuse le réseau social du groupe ByteDance de ne pas faire assez pour supprimer ces contenus, et pour avertir ses utilisateurs juvéniles.
Des enfants qui, en quelques minutes, ont été submergés de contenus toxiques
Pour mener son enquête et arriver à de telles conclusions, NewsGuard a collaboré avec neuf enfants âgés de 9 à 17 ans, supervisés par leurs parents ou des adultes proches, qui lors de leur connexion à l'application, ont seulement mis quelques minutes à se voir proposer des vidéos fausses ou trompeuses, aussi bien sur la pandémie que sur d'autres sujets sensibles, comme la guerre en Ukraine.
Les participants ont été stupéfaits de voir qu'il n'a fallu que quelques minutes pour découvrir des contenus toxiques, certains affirmant par exemple que les vaccins sont mortels, d'autres que la COVID-19 résulte d'un complot génocidaire.
Dès le départ, il y avait de quoi se questionner, en voyant que l'un des participants, âgé seulement de 9 ans, a pu s'inscrire sans aucun souci sur TikTok, alors que le réseau social de courtes vidéos est censé être interdit aux enfants de moins de 13 ans (attention, sur cette question, les concurrents de TikTok ne sont franchement pas exempts de tout reproche).
Des recommandations douteuses spontanées, et un manque d'avertissements
Sur les 35 premières minutes de navigation, huit des neuf « testeurs » ont eu affaire à de la désinformation autour de la pandémie. Le plus étonnant tient en la recommandation des contenus visualisés. Car quatre des participants devaient se balader de façon minimale sur TikTok : c'est-à-dire sans suivre d'autres comptes, sans chercher de sujets précis et sans cliquer sur des hashtags. Et pourtant, l'application a rempli leur flux d'infos sur la COVID-19.
Au final, les chercheurs de NewsGuard affirment que 20 % des vidéos visionnées durant leur enquête conduisaient à des informations fausses ou trompeuses. Deux vidéos sur dix, c'est colossal, et nul doute que la croissance particulièrement rapide de TikTok (qui compte plus d'un milliard d'utilisateurs) a de quoi alerter sur les conséquences auprès du jeune public, en cas d'une modération des contenus trop laxiste. Et ce, d'autant plus que durant l'enquête, seul l'enfant germanophone a vu apparaître un message d'avertissement sur une vidéo infox, précisant que « cette vidéo a été signalée pour un contenu non vérifié ».
Avec une volonté de renforcer la transparence de ses services, TikTok a dévoilé, cet été, les mesures qui lui permettront d'améliorer son système de modération et de faciliter le travail des chercheurs en la matière. Pas une mince affaire.
Source : NewsGuard