Un rapport universitaire égratigne la technologie de reconnaissance faciale de la police métropolitaine anglaise, dont la vue est encore un peu floue.
Dans un rapport publié cette semaine par une poignée de médias britanniques, les chercheurs de l'Université d'Essex ont fait état de leurs résultats concernant la technologie de reconnaissance faciale de la police locale. Et ces derniers ne sont clairement pas reluisants, puisque dans 81 % des cas, soit quatre fois sur cinq, le système a signalé à la police des personnes innocentes, alors qu'il était censé rechercher des criminels.
Les chercheurs appellent Scotland Yard à cesser le programme
L'étude universitaire fait part de ses « préoccupations importantes » au sujet de la reconnaissance faciale et appelle Scotland Yard à cesser d'exploiter son programme, fonctionnel depuis août 2016 et installé à l'occasion du Carnaval de Notting Hill. Pour les chercheurs, l'utilisation de la technologie par la police pourrait être contestée par la justice. Depuis 2016, le Metropolitan Police Service (Met) a utilisé sa technologie de reconnaissance faciale à dix reprises.Pour étoffer leur rapport, les chercheurs Pete Fussey et Daragh Murray ont évalué l'utilisation de l'IA sur six des dix manifestations durant lesquelles elle fut utilisée. Ils ont noté que sur les 42 correspondances étudiées, seules huit furent vérifiées, justifiant ainsi le monumental taux d'erreur de 81 %.
Outre les défauts techniques, le rapport pointe du doigt une question éthique : celle du consentement. La technologie ayant été utilisée lors de manifestations publiques, la police se devait d'en informer les participants. Si des panneaux ont bien été affichés, les chercheurs considèrent que le consentement significatif était très compliqué à obtenir.
San Francisco a interdit la technologie de reconnaissance faciale dans ses services publics
Le Met contredit le rapport universitaire
De son côté, le Met se défend en indiquant établir des mesures différentes de celles du rapport. La police préfère se baser sur les chiffres totaux des visages traités, plutôt que sur le taux de réussite entre correspondances réussies et non réussies. Ainsi, la police britannique indique que sa technologie ne commet qu'une seule erreur pour 1 000 cas, soit un taux d'erreur de 0,1 %.« Nous sommes extrêmement déçus du ton négatif et déséquilibré de ce rapport. Nous disposons d'un fondement juridique pour cette période test et nous avons suivi les conseils juridiques tout au long de celle-ci. Nous pensons que le public s'attend définitivement à ce que nous essayons des méthodes innovantes de lutte contre la criminalité afin de rendre Londres plus sûre », a réagi le Met par l'intermédiaire de son sous-commissaire, Duncan Ball.
Source : Sky News