Des dessins animés sur YouTube contiennent des messages d'incitation au suicide

Mathieu Grumiaux
Par Mathieu Grumiaux, Expert maison connectée.
Publié le 27 février 2019 à 17h11
YouTube Kids

Des parents ont découvert dans un dessin animé proposé par YouTube des passages dérangeants simulant une tentative de suicide. Cette affaire illustre une nouvelle fois les problèmes de modération rencontrés par la plateforme de Google.

Droit de réponse de YouTube :
« Nous travaillons sans relâche pour que YouTube ne soit pas utilisé dans le but d'encourager les comportements dangereux. Nous appliquons des règles strictes interdisant les vidéos encourageant l'automutilation. Nous nous appuyons sur le signalement des utilisateurs et des outils de détection automatisés afin d'identifier rapidement ces contenus et les soumettre à nos équipes pour une vérification humaine. Chaque trimestre, nous supprimons des millions de vidéos et chaînes qui enfreignent nos politiques. La majorité de ces vidéos sont supprimées avant même qu'elles ne soient visualisées. Nous nous efforçons d'améliorer nos systèmes dans le but de supprimer encore plus rapidement ces contenus illicites. »

Une mère de famille qui souhaite rester anonyme a fait une découverte absolument sordide en regardant des dessins animés avec son fils sur YouTube. Après sept minutes, le dessin animé s'est interrompu pour montrer un homme donnant des conseils sur la meilleure manière de se taillader les poignets. Après quelques secondes, le cartoon a repris comme si de rien n'était.

Un passage malsain caché dans un dessin animé tous publics

Dégoûtée par ce qu'elle a vu, la mère de famille a immédiatement supprimé l'application de ses appareils et interdit son utilisation à ses enfants. Elle a ensuite raconté son histoire sur le site Pedimom, un blog de conseils pédiatriques, pour alerter des dangers encourus par les plus jeunes à utiliser la version pour enfants de YouTube.

La vidéo incriminée a été retirée immédiatement de la plateforme de streaming, mais on peut constater que les premiers signalements ont débuté 8 mois auparavant.

YouTube modère souvent a posteriori, un problème pour le développement des plus jeunes

YouTube a répondu à la polémique dans un communiqué. Le service assure que « les vidéos signalées sont examinées manuellement 24 heures sur 24, 7 jours sur 7 et toutes les vidéos qui n'appartiennent pas à l'application sont supprimées ».

Ce n'est pas la première fois que la modération mise en place par le géant du streaming vidéo est pointée du doigt. Il y a quelques jours à peine, une sombre affaire de vidéos de jeunes filles dans des positions suggestives avait été dévoilée. Des annonceurs avaient aussitôt annoncés retirer leurs investissements publicitaires pour ne plus être associés à ces contenus contraires à leurs valeurs, malgré les décisions rapides prises par YouTube pour supprimer les contenus et les commentaires jugés indécents.

Mais pour Nadine Kaslow, ancienne présidente de l'Association américaine de psychologie, le simple retrait de ces vidéos n'est pas suffisant : « Pour les enfants qui ont été exposés, ils ont été exposés. Ils doivent être accompagnés désormais. C'est pourquoi cela ne va pas ». Elle rappelle que les plus jeunes pourraient également essayer de reproduire ce qu'ils ont vu dans les vidéos par curiosité.

Aux États-Unis, le suicide est la troisième cause de décès chez les jeunes de 10 à 24 ans, avec 157 000 passages à l'acte recensés chaque année.

Source : Ars Technica

Mathieu Grumiaux
Expert maison connectée
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
nrik_1584

En lisant le titre je m’attendais à une polémique du même genre que l’arrivée de DBZ dans le Club Dorothée à l’époque…

Mais là c’est carrément un acte malveillant. Du coup au-delà de la suppression de la vidéo, des recours ont été lancés contre la personne qui a uploadé ça ?

Sinon concernant la modération 24/7 par visionnage manuel je serais curieux de connaître la procédure en question… S’il s’agit de passer les 2 premières minutes vite fait ça me semblerait un peu léger.

Startide

Ce n’est pas nouveau, comme l’indique l’article. Youtube gère systématiquement de la pire façon tout ce qui touche à la modération de sa plateforme de toute manière.

Pour une plateforme “kids” c’est quand même excessivement malvenu que cela soit passé entre les mailles du filet, mais le pire est bien entendu l’inaction de la plateforme malgré les signalement répétés.

D’une façon générale : ne laissez pas vos enfants regarder youtube sans vous. Pas facile à tenir je sais, sinon tournez vous vers des listes que vous avez prévalidées vous mêmes…

Wehrmicel

De mon temps avec les Tom & Jerry et compagnie les dessins animés n’y allaient pas de main morte…

Ah c’était le bon vieux temps, quand la télé valait encore le coup.

nirgal76

Ah mince, les parents vont être forcés de s’occuper de leur enfants et ne plus pouvoir les laisser livrés à eux même sur la tablette !

benben99

N’importe quel parent qui se respecte ne laisse pas ses enfants seuls avec un ipad que ce soit pour des jeux vidéos ou vidéos.

bmustang

google devrait penser à mieux payer ses employés et sous mains pour éviter de telles errances ou de déconnecter son IA ?

Saulofein

Au vu du nombre de vidéo chargée sur la plateforme, si tu veux qu’une personne regarde en entier chaque vidéo, il faut embaucher la moitié de l’humanité x)
Plus sérieusement, c’est peut-être aussi aux parents de s’occuper de ce qu’ils mettent dans les mains de leurs enfants…

benben99

Oui j’ai des enfants et je m’occupe d’eux plutôt que les laisser devant un écran tout seul à faire n’importe quoi. Il y a tellement de parents indignes…

Monkey_D_Luffy707

Certes, ces vidéos n’avaient pas leur place ici.
Mais est-ce correct de dire : « Pour les enfants qui ont été exposés, ils ont été exposés. Ils doivent être accompagnés désormais. C’est pourquoi cela ne va pas » il y a du vrai, mais de la à aller jusqu’a dire que les enfants doivent être accompagnés… Si ils ont étaient choquée, c’est une bonne solution, mais ce n’es pas le cas de tout les enfants. Après, je n’ai peut être pas bien compris le sens de cette phrase.
YouTube a encore commis une erreur, je n’essaie pas de défendre la communauté, je veux juste dire que c’est trop facile de dire, en quelque sorte, qu’ils font exprès…

fg03

J’espère qu’ils vont traquer ce genre de tarré et l’arrêter.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles