Les géants du web utilisent un outil permettant de déterminer si un individu est jugé « à risque » ou dangereux par la simple analyse de sa voix et sa diction. George Orwell n'est pas loin.
Une solution permettant de classer les individus uniquement par leurs intonations
AC Global Risk est une très jeune start-up, créée en 2016, mais qui impose déjà ses solutions dans les plus grandes entreprises de technologie américaines. La petite société développe un outil automatisé, RRA, permettant d'analyser le comportement d'un individu par sa voix.Concrètement, le système génère un questionnaire dont les réponses doivent être « oui » ou « non ». Cet interview d'une dizaine de minutes est mené par téléphone et une intelligence artificielle analyse en temps réel les réponses données, mais surtout la manière dont elles sont énoncées.
De cette manière, l'outil peut produire une évaluation selon une grille d'analyse précise donnant le niveau de risque d'un individu, qu'il soit un candidat à un entretien d'embauche, mais également un réfugié ou un demandeur d'asile comme l'explique sans gêne le fondateur d'AC Global Risk, Alex Martin : « RRA est la solution à la monumentale crise des réfugiés que connaissent actuellement les États-Unis et d'autres pays. ». Donald Trump appréciera.
Une solution très utilisée qui pose un problème éthique
Le magazine en ligne The Inetrcept note dans son article la liste des clients actuels de la jeune start-up et ils sont nombreux. Apple, Facebook, Google utilisent déjà le système, possiblement dans les phases de recrutement de leurs employés. L'Armée américaine est également citée comme l'un de ses clients, notamment dans le déroulement des opérations militaires en Afghanistan.Pourtant le système, présenté comme infaillible par AC Global Risk suscite de nombreux commentaires des chercheurs en sécurité et experts en analyse vocale. « Il y a des informations dans les changements dynamiques de la voix et cet outil les détecte », explique Alex Todorov, psychologue de l'Université de Princeton qui étudie la science de la perception sociale et des premières impressions, en ajoutant toutefois que « la question est de savoir dans quelle mesure ces informations permettent de détecter sans ambiguïté la catégorie de personnes qu'elles définissent comme risquées. Il y a toujours de l'ambiguïté dans ce type de signaux ».
AC Global Risk ne fait aucun commentaire et refuse d'expliquer comment fonctionne sa technologie de reconnaissance vocale et d'analyse, Alex Martin ne communiquant que sur le chiffre de 97% d'exactitude dans les évaluations données.
À une époque où les usages de l'intelligence artificielle sont toujours plus importants, l'existence d'un tel système va relancer les débats autour de l'éthique à donner à l'utilisation des algorithmes par les entreprises et les pouvoirs publics.