Reconnaissance faciale

Ils sont plus de 1 000 chercheurs, experts et académiciens à s’inquiéter de la publication d’une étude sur un système de reconnaissance faciale capable de prédire si une personne va commettre un crime. Ils lui reprochent notamment des biais racistes à cause de méthodes d’apprentissage douteuses. 

La recherche est censée figurer dans une prochaine série de livres de la société d’édition Springer, éditeur de la revue scientifique Nature

Un outil censé prédire un crime grâce à une simple photo d’un visage

Dans un communiqué de presse, les auteurs affirment avoir développé un logiciel de reconnaissance faciale capable de « prédire si quelqu’un est un criminel en se basant uniquement sur une photo de son visage », et capable d'assister et d'aider les forces de l'ordre dans leur travail. Toujours selon le communiqué, le système a « une précision de 80 % sans aucun préjugé racial » et n’est pas « affecté par des préjugés implicites et des réactions émotionnelles ». 

Or, les signataires d’une lettre parue sur Medium, dont certains travaillent chez Google, Facebook ou encore Microsoft, dénoncent la parution prochaine de l’étude et appellent toutes les maisons d’édition à ne pas la publier. D’après eux, certaines intelligences artificielles, notamment celles basées sur le machine learning (comme c’est le cas ici), ne sont pas impartiales : 

« Les recherches de cette nature - et les prétentions à l'exactitude qui les accompagnent - reposent sur l'hypothèse que les données relatives aux arrestations et aux condamnations pénales peuvent servir d'indicateurs fiables et neutres de l'activité criminelle sous-jacente. Pourtant, ces données sont loin d'être neutres. Comme l'ont démontré de nombreux chercheurs, les données historiques relatives aux tribunaux et aux arrestations reflètent les politiques et les pratiques du système de justice pénale. Ces données reflètent qui la police choisit d'arrêter, comment les juges appliquent les peines et quelles personnes se voient accorder des peines plus longues ou plus clémentes ». 

Or, il est désormais avéré, notamment aux États-Unis, que les personnes de couleur sont traitées beaucoup plus durement que les autres par le système judiciaire. Un tel outil viendrait alors fragiliser davantage des communautés déjà mises à mal, en les ciblant plus encore. 

La reconnaissance faciale hérite des croyances culturelles

Vivement critiqués et controversés depuis des années, les systèmes de reconnaissance faciale ont fait preuve à plusieurs reprises de biais racistes. Dans leur lettre, les experts déclarent que « les programmes de recherche et les ensembles de données exploités par ces outils héritent souvent des croyances culturelles dominantes dans le monde ». 

D’ailleurs, IBM a récemment décidé d’abandonner le marché de la reconnaissance faciale pour raisons éthiques. L’entreprise, qui avait pourtant tenté de combattre les travers de cette technologie, a finalement baissé les bras. 

Source : TechCrunch