© Shutterstock
© Shutterstock

L'idée de deux développeurs américains de confier la réalisation de portraits-robots à une intelligence artificielle ne plaît pas aux experts du domaine.

L'objectif de ces développeurs est de réduire considérablement le temps nécessaire à la réalisation d'un portrait-robot tout en proposant une version plus réussie et réaliste. Mais des experts en enquête scientifique et des observateurs de l'éthique de l'IA assurent de leur côté qu'une telle innovation peut aggraver les biais racistes ou fondés sur le genre déjà existants.

L'usage du portrait-robot déjà largement imprécis et critiquable

Des universitaires qui étudient la question ont déjà démontré que la mémoire humaine était largement défaillante lorsqu'il fallait décrire un visage détail par détail plutôt que de façon générale. La pratique du portrait-robot est donc une aide très peu fiable pour des enquêteurs de police, surtout que le résultat a tendance à remplacer le visage du véritable suspect dans la mémoire des témoins si ces derniers ne l'ont pas bien vu, ou pas pendant longtemps .

La conséquence est logique, des innocents dont le visage ressemble de près ou de loin au portrait-robot sont ainsi arrêtés. Une enquête de l'ONG Innocence Project a ainsi révélé que 69 % des condamnations d'innocents étaient dues à des témoignages de témoins qui s'étaient trompés. Et surtout, un tel procédé a tendance à désigner de façon disproportionnée les personnes déjà marginalisées et à aller dans le sens des biais des témoins. Cela peut être un gros problème en ce qui concerne la police, a fortiori la police américaine.

Concrètement, le seul problème que règle réellement ce projet, c'est le temps nécessaire à la réalisation d'un tel portrait.

Évidemment que l'IA est raciste, elle copie les humains

Nombreux sont les inventeurs, pas uniquement dans le domaine de l'intelligence artificielle, qui pensent être neutres, ou au minimum qu'une machine dépourvue de sentiments ne peut être biaisée. C'est complètement faux. Sans remettre en cause la sincérité de ceux qui l'affirment, une nouvelle technologie souffre des mêmes biais que ses créateurs. Ici, le biais est de partir du principe que la police ne se trompe jamais, et qu'elle est toujours sincère et honnête. En effet, puisque l'IA est entraînée sur des bases de données de condamnés, elle reprend leurs résultats sans hésiter. Ces deux hypothèses ont pourtant été largement démontées, tant par des journalistes que par des chercheurs en statistiques.

Ce biais, appliqué à une machine soi-disant neutre, est particulièrement injuste pour les personnes noires et hispaniques, beaucoup plus souvent arrêtées et condamnées que le reste de la population (jusqu'à 5 fois plus que les personnes blanches). Pour une IA, qui n'est certes pas raciste de base, une telle différence statistique risque tout simplement de lui faire considérer qu'être non blanc est un facteur de risque en soi, transformant de fait la couleur de peau en argument pour désigner un coupable potentiel. Plusieurs exemples ont déjà démontré que ces risques étaient bien plus qu'une hypothèse, comme lorsqu'un homme afro-américain a été arrêté et enfermé pour un vol commis dans un État qu'il n'avait jamais visité. C'est la reconnaissance faciale « intelligente » qui l'avait désigné aux policiers.

Faites le test, et demandez à DALL-E une photo d'un P.-D.G., et une autre d'un braqueur de banque ou d'un dealer de drogue. La neutralité de l'intelligence artificielle, si elle a un jour existé, a vécu.