Les GAFA utilisent un outil "douteux" mesurant la dangerosité d’un individu par sa voix

Mathieu Grumiaux
Par Mathieu Grumiaux, Expert maison connectée.
Publié le 28 novembre 2018 à 08h41
voix smartphone vocal fotolia

Les géants du web utilisent un outil permettant de déterminer si un individu est jugé « à risque » ou dangereux par la simple analyse de sa voix et sa diction. George Orwell n'est pas loin.

Une solution permettant de classer les individus uniquement par leurs intonations

AC Global Risk est une très jeune start-up, créée en 2016, mais qui impose déjà ses solutions dans les plus grandes entreprises de technologie américaines. La petite société développe un outil automatisé, RRA, permettant d'analyser le comportement d'un individu par sa voix.

Concrètement, le système génère un questionnaire dont les réponses doivent être « oui » ou « non ». Cet interview d'une dizaine de minutes est mené par téléphone et une intelligence artificielle analyse en temps réel les réponses données, mais surtout la manière dont elles sont énoncées.

De cette manière, l'outil peut produire une évaluation selon une grille d'analyse précise donnant le niveau de risque d'un individu, qu'il soit un candidat à un entretien d'embauche, mais également un réfugié ou un demandeur d'asile comme l'explique sans gêne le fondateur d'AC Global Risk, Alex Martin : « RRA est la solution à la monumentale crise des réfugiés que connaissent actuellement les États-Unis et d'autres pays. ». Donald Trump appréciera.

Une solution très utilisée qui pose un problème éthique

Le magazine en ligne The Inetrcept note dans son article la liste des clients actuels de la jeune start-up et ils sont nombreux. Apple, Facebook, Google utilisent déjà le système, possiblement dans les phases de recrutement de leurs employés. L'Armée américaine est également citée comme l'un de ses clients, notamment dans le déroulement des opérations militaires en Afghanistan.

Pourtant le système, présenté comme infaillible par AC Global Risk suscite de nombreux commentaires des chercheurs en sécurité et experts en analyse vocale. « Il y a des informations dans les changements dynamiques de la voix et cet outil les détecte », explique Alex Todorov, psychologue de l'Université de Princeton qui étudie la science de la perception sociale et des premières impressions, en ajoutant toutefois que « la question est de savoir dans quelle mesure ces informations permettent de détecter sans ambiguïté la catégorie de personnes qu'elles définissent comme risquées. Il y a toujours de l'ambiguïté dans ce type de signaux ».

AC Global Risk ne fait aucun commentaire et refuse d'expliquer comment fonctionne sa technologie de reconnaissance vocale et d'analyse, Alex Martin ne communiquant que sur le chiffre de 97% d'exactitude dans les évaluations données.

À une époque où les usages de l'intelligence artificielle sont toujours plus importants, l'existence d'un tel système va relancer les débats autour de l'éthique à donner à l'utilisation des algorithmes par les entreprises et les pouvoirs publics.
Mathieu Grumiaux
Par Mathieu Grumiaux
Expert maison connectée

Journaliste pour Clubic, je couvre essentiellement les sujets concernant la maison connectée et les objets connectés, mais aussi les dernières nouvelles de l'industrie du streaming vidéo, entre autres sujets. Je suis également l'actu d'Apple, marque qui m'accompagne depuis mon premier iPod mini en 2005 (ça ne nous rajeunit pas…)

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
FrAxXx

Psycho-Pass n’est plus très loin à ce rythme…

Feunoir

Concernant AC Global Risk, la question que je me pose c’est “comment ont ils fait pour trouver que telle intonation/diction = dangereux”
en gros ils ont sillonné les couloirs de la mort et les hôpitaux psychiatriques ou ont fait cela au doigt mouillé car de toute façon cela allait se vendre?
j’espère qu’ils ont une confiance absolue dans leur méthode sinon leur manque de scrupule est impressionnant

yeerum

Je pense que le terme dangereux est utilisé plus par rapport aux conséquences d’une mauvaise décision prise à la suite d’un examen / entretien d’embauche / interrogatoire, qu’à une dangerosité imminente.

Nmut

Ils ont là pour faire du fric, l’éthique ou autre truc qui n’a rien à voir, ce n’est pas un problème. :-/
Sinon, pour le “comment ils ont fait”, ça me semble ressembler à un détecteur de mensonges. Après une petite phase d’étalonnage, une série d’indice peut montrer qu’une personne ment. C’est la fiabilité de 95% qui me semble étrange, surtout non accompagnée de l’info importante: il y a 5% de faux positifs ou 5% de faux négatifs? Ce n’est pas du tout la même chose!

share_the_pain

Il faut se réveiller et vite vous comprenez pas que le monde de demain c’est la surveillance des humains par les robots 24h/24 ???!

Je comprends pas comment des ingénieurs travaillent dans ce genre de projets sans se poser les bonnes questions… ce monde est foutu si on agit pas !

LawyerInTown

Et si en répondant au questionnaire on est énervé, on va se faire cataloguer comme dangereux ? Alors que quelqu’un d’énervé n’est pas nécessairement quelqu’un de dangereux…
La machine sera-t-elle capable de percevoir aussi bien que l’humain ?
Orwell, était un visionnaire…

lordypakna

On a voulu utiliser ce genre de procédé à l’assemblée et puis on s’est ravisé.

Nmut

Le problème, c’est aussi la définition de “discriminant”! Les points que tu donnes le sont aussi finalement…

KlingonBrain

Le problème, c’est qu’on fabrique à la pelle ce que demande l’industrie : des techniciens avec un énorme bagage mathématique/physique/technique mais quasiment rien dans les matières qui donnent à réfléchir Histoire/Littérature/Philosophie/Sciences humaines.

L’industrie ne veut pas de gens qui réfléchissent. Le monde du fric préfère les bons petits soldats avec un ego surdimensionné qui sont tellement fascinés par leur propre technique, le monde matérialiste et leur petite carrière qu’ils en oublient complètement les considérations humaines.

Mais à quoi bon réussir et faire des enfants si c’est pour leur donner un avenir aussi sombre et dangereux ?

Science sans conscience n’est que ruine de l’âme…

Rumpelstiltskin

C’est un peut rasiste mdr

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles