Le réseau social propriété de Facebook a réagi après la tragique disparition d'une adolescente britannique.
Dans un communiqué de presse publié le jeudi 7 février 2019, Instagram a annoncé vouloir davantage soutenir et protéger les personnes les plus vulnérables qui utilisent le réseau social. Instagram a décidé d'agir suite à la mise en cause de la plateforme par le père d'une jeune britannique de 14 ans, qui s'est suicidée en 2017 et qui avait, selon lui, consulté de multiples contenus liés au suicide et à l'automutilation.
Instagram ne supprimera pas tous les contenus liés à l'automutilation
Les équipes d'Instagram ont réuni un collège d'experts et d'universitaires spécialistes des questions de santé mentale et de prévention du suicide pour annoncer des mesures destinées à enrayer la publication de contenus choquants.Le réseau social va ainsi interdire et supprimer toute photo d'automutilation. Pour les photos moins explicites, mais toujours liées à l'automutilation, comme des cicatrices, elles ne seront pas supprimées, mais ne seront pas portées non plus par l'algorithme d'Instagram. Cela signifie qu'elles ne figureront que sur le compte de l'émetteur de la photo, ce qui sous-entend que les hashtags ou la barre de recherche ne permettront donc pas de retrouver ces contenus.
Le réseau social va rediriger les utilisateurs vers des centres d'aide
Enfin, Instagram s'engage à intervenir au moment où des utilisateurs postent ou recherchent des contenus liés à l'automutilation en les redirigeant vers des organismes susceptibles de leur venir en aide dans leur détresse psychologique.Il est bon que les réseaux sociaux essaient d'opérer pour empêcher un être humain de se faire du mal, de rechercher des informations sur le sujet ou même de mettre en scène sa propre autodestruction. Mais se pose la question d'une véritable législation sur la question, qui apparaît plus que nécessaire.