Accusée parfois d'inaction face au harcèlement en ligne et la violence de certains de ses utilisateurs, la plateforme Twitch a annoncé l’introduction d’un nouveau système pour mieux protéger ses streameurs des internautes malveillants.
Ce nouvel outil de modération est fondé sur l’intelligence artificielle. Il permettra, entre autres, de détecter celles et ceux qui créent de nouveaux comptes pour revenir sur les chaînes qui les ont bannis.
Un nouvel outil de modération fondé sur le deep learning
Depuis de nombreux mois, Twitch peine à endiguer une vague de harcèlement à caractère raciste et homophobe qui consiste en des hate raids destinés à nuire à certains créateurs. Plus concrètement, les internautes malveillants viennent inonder les chats de leurs victimes d’insultes, voire parfois d’images choquantes. Et même quand les streameurs les bannissent, ils reviennent avec un nouveau compte anonyme, puisque Twitch laisse la possibilité de créer plusieurs profils avec une seule adresse mail. C’est sur ce dernier point que le nouvel outil de modération agira.
Baptisé Suspicious User Detection, ce nouveau système repose sur l’intelligence artificielle et « permettra aux modérateurs de prendre des actions contre les comptes qui essaient d’éviter des bans », annonce la plateforme de streaming dans un communiqué de presse daté du 30 novembre 2021. Concrètement, l’outil utilisera le deep learning (apprentissage automatisé des logiciels) pour identifier les comptes suspects en analysant « un certain nombre de signaux », sans que l’on ne sache lesquels.
Une fiabilité non assurée
L’outil fera alors la distinction entre les trolls « probables » et « possibles ». Dans le premier cas, les messages de l’utilisateur seront automatiquement masqués dans le chat, et ils ne seront vus que par les modérateurs qui pourront agir en conséquence. Dans le second, la personne pourra écrire normalement dans le fil de discussion, mais tous ses messages seront signalés aux modérateurs qui pourront surveiller son comportement. Les streamers pourront cependant empêcher les utilisateurs jugés cas « possibles » d’interagir dans le chat par défaut via les options de l’outil.
La fonction sera par ailleurs activée automatiquement sur l’ensemble des comptes des streameurs Twitch et sera désactivable à l’envi, sachant que les modérateurs pourront toujours ajouter manuellement des comptes qu’ils trouvent suspects. Reste à voir si cette nouvelle option de modération sera réellement efficace en cas de raid, d’autant qu’il lui faudra des mois d’apprentissage avant d’être vraiment efficace.
« Aucun système de machine learning n’est fiable à 100 %, ce qui signifie qu’il y a des risques de faux positifs, ou de faux négatifs, précise par ailleurs Twitch. C’est pour cela que l’outil n’exclut pas automatiquement tous les potentiels fraudeur… »
Source : Engadget