La police américaine s'équipe de caméras embarquées dotées de reconnaissance faciale

Pierre Crochart
Par Pierre Crochart, Spécialiste smartphone.
Publié le 05 mars 2020 à 09h54
Caméra embarquée reconnaissance faciale
© Wolfcom

Voilà qui ne risque pas d'apaiser la controverse. Aux États-Unis, où l'usage de la reconnaissance faciale par les forces de l'ordre soulève de grandes interrogations, une entreprise admet avoir déjà fourni plus de 1 500 postes de police et organisations fédérales en caméras mobiles, potentiellement dopées à l'IA.

Un pas que Axon, leader du marché des caméras embarquées à destination des forces de police s'est toujours refusé à franchir, évoquant « de sérieuses craintes éthiques ». L'entreprise Wolfcom, elle, semble moins regardante sur ces considérations.


La reconnaissance faciale devient mobile

Wolfcom aurait déjà vendu ses caméras embarquées à plus de 1 500 départements de police et autres organisations fédérales au pays de l'Oncle Sam. Une information a priori des plus banales, mais que les découvertes du média OneZero agrémentent d'un détail délicat : l'entreprise développe des programmes de reconnaissance faciale à destination de ces mêmes caméras.

Une initiative, écrit OneZero, qui fait de Wolfcom le premier constructeur de caméras embarquées américain à assumer poursuivre le développement de la reconnaissance faciale à destination des forces de l'ordre.

« Avec Realtime Facial Recognition (le nom du logiciel en développement), WOLFCOM espère donner à nos amis de la police des outils qui les aideront à identifier si la personne à laquelle ils parlent est un suspect, un disparu ou une personne d'intérêt », aurait écrit Peter Austin Onruang dans un email destiné au département de police de l'Oklahoma en mai 2019.

Wolfcom
Un email de Wolfcom à destination des forces de police du pays. © OneZero

Un email également suivi aux départements policiers de Los Lunas, du Nouveau-Mexique et de Bakersfield, en Californie, dans lequel le patron de l'entreprise demande aux forces de l'ordre de bêta-tester sa technologie.


Une analyse des sentiments en temps réel

Toujours dans cette série d'emails obtenue par OneZero, Wolfcom invite ses interlocuteurs à prendre la mesure des bienfaits de son logiciel via une courte vidéo (disponible à cette adresse). Une présentation qui met en scène trois individus filmés par la caméra de Wolfcom, et dont le profil apparaît clairement sur un moniteur.

La personne de gauche est ainsi identifiée comme « personne disparue », de genre féminin, de 24 ans, et dispose d'un score de « bien-être » de -13. L'homme de 33 ans à sa gauche est quant à lui sous le coup d'un mandat d'arrêt (score de « bien-être » de -20), et son voisin de 27 ans est recherché pour une agression.

Caméra embarquée reconnaissance faciale
Démonstration du logiciel de reconnaissance faciale de Wolfcom. © Wolfcom

Une démonstration en laboratoire des plus concluantes, mais qui ne correspond pas vraiment aux performances actuelles du logiciel. Selon un représentant de la police de Los Lunas interrogé par OneZero, il faut pour le moment prendre en photo le visage de la personne et la mettre en ligne sur une application Android dédiée mise à disposition des bêta-testeurs. On est loin de la promesse initiale, mais Wolfcom a une astuce pour motiver les forces de l'ordre : tous les commissariats qui acceptent de participer à la phase de test pourront utiliser le logiciel final gratuitement.

Restera à voir si les attentes des forces de l'ordre sont comblées par les promesses de Wolfcom qui, lui, ne s'avance sur aucune obligation de résultat, ni même ne communique sur les bases de données qui seront interrogées par son logiciel pour permettre l'identification des individus. Une opacité encore plus inquiétante lorsque l'on ignore même si l'algorithme utilisé par Wolfcom est développé par ses soins ou loué à une entreprise tierce.

Source : OneZero
Pierre Crochart
Spécialiste smartphone
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
giz14123

la controverse ça s’appel la vie privée tout simplement!

Pierre_C

Tout le problème est là : ça ne fonctionne pas. À Londres, où l’usage de la reconnaissance faciale a été adopté, le taux d’erreur de la technologie est de 86% ! Cela va juste augmenter la charge de travail de la police qui va devoir s’amuser à trier les résultats, et faire en sorte que la population se sache épiée en permanence par des caméras qui, peut-être, les prendront pour quelqu’un d’autre et mènera à leur interpellation par la police.

La controverse est simple : la surveillance généralisée instaure une société où la liberté d’aller et venir est remise en cause. Quand on se sait surveillé, on n’agit pas de la même façon que quand on ne l’est pas. Des siècles de recherche en psychologie sociale ont déjà prouvé cela.

Le problème, c’est que les gouvernements préfèrent accorder du crédit à ces technologies certes novatrices mais bien mal calibrées, qui creusent considérablement les inégalités et risquent d’augmenter sensiblement la stigmatisation des personnes de couleur (les algorithmes ont énormément de mal à reconnaître une personne « racisée », car entraînés uniquement sur des personnes blanches). Alors que les premiers intéressés, les policiers, eux, ne demandent qu’une chose : davantage de moyens, du personnel, du matériel et des locaux modernes. Pas des caméras dernier cri que des start-ups promettent révolutionnaires.

Jenova

Quiconque sacrifie sa liberté pour plus de sécurité ne mérite ni l’un ni l’autre.
Il y a vraiment besoin de developper ?

Avi84

Vie privée sur la voie public, rien ne te choque ?
La vie privée existe quand elle est protégé de la vue de tous !!!
Dans la rue, il n’y a pas de vie privée, c’est une vie public comme sur internet, où tout est public…

Avi84

Pierre C à dit :
"À Londres, où l’usage de la reconnaissance faciale a été adopté, le taux d’erreur de la technologie est de 86% ! "
Faux, l’erreur est de 7 / 8 600 visages scannés, ce qui fait moins de 1/1000. Ce qui ne fait pas la même chose.
Il faut ce méfier des chiffres, on peut leurs faire dirent n’importe quoi !!!

Le problème de l’IA, c’est qu’elle apprend de son expérience. Pas d’expérimentation, pas d’apprentissage, donc, pas d’amélioration des résultats.
C’est comme un enfant, pas d’école primaire, échec à l’université !!!

On doit accepter les caméras et la reconnaissance faciale, tout en se montrant très stricte sur l’usage qui en est fait. Mais le refus est une aberration.

Pour mémoire, les premières voitures à pétrole étaient refusées, aujourd’hui, on ne peut plus s’en passer !!!

Avi84

Oui, car on ne sacrifie pas sa liberté en acceptant les caméras et la reconnaissance faciale.
Il n’y a que ceux qui n’ont pas la conscience tranquille qui craignent ces mesures. Les autres continuent à vivre normalement, sans gène.

Jenova

C’est bien une remarque de mouton ça … Une personne surveillé ne ce comportent pas de la meme maniere qu’une personne qui ne l’est pas

Avi84

Merci pour le mouton, moi aussi je peux te donner des noms désobligeant !!!

Ta remarque est fausse, ce n’est pas la personne surveillé qui ne ce comportent pas de la même manière qu’une personne qui ne l’est pas.

C’est une personne surveillé qui n’a pas la conscience tranquille qui ne ce comportent pas de la même manière qu’une personne qui a l’esprit tranquille.

Reprend l’article La police de Londres s’essaye à la reconnaissance faciale. Pour plus de 8600 personne, les caméras et la reconnaissance faciale ne les ont pas empêchée de vivre normalement.

Pierre_C

Mais personne ne dit que les intentions derrière la reco faciale ne sont pas nobles. Le problème c’est que les débordements sont sinon déjà visibles, inévitables.

Un exemple « tarte à la crème » ? La Chine, qui se repose notamment sur son réseau de caméras (une caméra pour deux habitants d’ici la fin de l’année) pour faire appliquer sa politique de répression et faire la chasse aux minorités.

Évidemment que tout le monde souhaite que les criminels soient arrêtés, que les disparus soient retrouvés et que l’on vive dans un monde plus sûr. Le problème c’est que ce ne sont pas les citoyens qui décident de ce qui est légal ou pas, et que demain peut-être il sera aussi interdit en France de - je ne sais pas, au hasard - manifester son désaccord avec la réforme des retraites.

Les promesses de l’IA sont enthousiasmantes. Mais jusqu’à présent ses applications dans le domaine de la sécurité ont surtout augmenté la paranoïa ambiante (tous potentiellement coupables de quelque chose) et favorisé les discriminations sur les minorités. Mais les gouvernements se mettent des oeillères et préfèrent forcer le déploiement d’une technologie qui est très, très loin d’être au point pour répondre aux attentes.

cirdan

Tu devrais te renseigner sur la manière dont sont utilisées les caméras et la reconnaissance faciale en Chine en ayant à l’esprit que la même chose pourrait arriver chez nous. Et tu pourras ainsi avoir une réflexion plus éclairée sur le prix à payer pour arrêter plus (ou pas) de délinquants ou autres (c’est la raison officielle, les autres on n’en parle pas) et ainsi mieux comprendre la controverse que ces outils provoquent.
Comme on dit, l’enfer est pavé de bonnes intentions.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles