© Activision
© Activision

Afin de combattre la toxicité rampante dans les chats vocaux sur Call of Duty, Activision s'allie à ToxMod, une IA conçue par Modulate.

Cette intelligence artificielle sera donc chargée de scanner les chats vocaux à la recherche de violations du code de conduite du jeu et de placer une cible sur les joueurs les plus toxiques. Cette nouvelle mesure s'inscrit, à l'image de ce que fait déjà Microsoft, dans un effort plus large d'Activision dans son éternel combat contre un fléau particulièrement présent sur cette franchise phare du genre FPS.

Une IA qui vise les joueurs toxiques en vocal

Selon de nombreuses études, Call of Duty a en effet la triste réputation d'accueillir l'une des communautés les plus toxiques dans un genre qui a tendance à faire chauffer le sang de ses joueurs. Entre la toxicité et les tricheurs, Activision est pour ainsi dire en guerre constante pour tenter d'assainir sa proverbiale machine à billets.

© Activision
© Activision

C'est pourquoi le studio vient tout fraîchement de signer un partenariat avec Modulate, la société derrière ToxMod, un système de modération alimenté par l'intelligence artificielle. Sa mission sera d'écouter et d'analyser les chats vocaux des jeux Call of Duty afin d'identifier des violations de leur code de conduite.

Sur le papier, l'intelligence artificielle prendra en compte le contexte des conversations, le ton employé et les émotions véhiculées par la voix des joueurs en vue de déterminer dans quelle mesure des propos colorés peuvent être considérés comme un discours de haine, de discrimination ou de harcèlement. Si tel est le cas, les joueurs incriminés seront identifiés afin que les équipes de modération puissent agir en temps réel, si le besoin s'en fait sentir.

Déploiement du drone en bêta

Ce partenariat entre Activision et Modulate en est à ses balbutiements, ToxMod étant pour l'heure déployé en bêta aujourd'hui en Amérique du Nord sur Call of Duty: Modern Warfare II et le Battle Royale Warzone.

© Activision

Un déploiement mondial (à l'exception visiblement de l'Asie) de ce nouveau système de modération sera opéré le 10 novembre, soit le jour de la sortie de Call of Duty: Modern Warfare III, le nouvel opus annuel de la franchise.

Reste donc à voir si le concours de l'IA dans cette guerre sempiternelle contre la toxicité sur Call of Duty se montrera une arme efficace, ou au contraire une nouvelle source de problèmes. Il convient en effet de noter que, pour l'heure, de telles IA peuvent faire preuve d'excès de zèle, et ne pas pleinement saisir la nuance entre blague de mauvais goût et véritable discours condamnable.

Source : Modulate