Suite à « l'attaque » du Capitole américain, la société Clearview annonce avoir observé un pic d'utilisation de sa technologie de reconnaissance faciale.
Hoan Ton-That, le P.-D.G. de l'entreprise, a ainsi confirmé auprès de The Verge que le 7 janvier (le lendemain des faits), le taux d'utilisation de sa technologie par les forces de l'ordre avait augmenté de 26 %.
Le public et les forces de l'ordre locales au secours du FBI
Cette hausse a d'abord été rapportée par le New York Times. L'attaque du 6 janvier a été diffusée en direct sur de nombreuses chaînes d'information. Des centaines de visages de manifestants sont donc disponibles pour la reconnaissance faciale. Le média précise ainsi : « Il existe de nombreuses photos et vidéos en ligne d'émeutiers, dont beaucoup démasqués, prenant d'assaut le Capitole. »
Le FBI aurait posté les visages de dizaines d'entre eux et demandé de l'aide, y compris celle du grand public, pour identifier les personnes. Différents services de police locaux sont déjà en train de répondre à cet appel. Armando Aguilar, le directeur adjoint du département de police de Miami, qui supervise les enquêtes, a déclaré : « Nous examinons toutes les images ou vidéos disponibles sur tous les sites sur lesquels nous pouvons mettre la main ».
Une base de données issue des réseaux sociaux
L'occasion est trop belle pour Clearview AI de montrer ce dont sa base de données est capable. Les forces de l'ordre utilisent déjà leurs propres systèmes de reconnaissance faciale. Mais si ces derniers s'appuient sur des photos à caractère administratif (comme celles utilisées pour les permis de conduire par exemple), la base de Clearview compte des photos issues des réseaux sociaux et d'autres sites.
Les trois milliards d'images contenues dans cette base est donc un complément utile aux forces de l'ordre, bien que son utilisation pose des questions relatives à la vie privée. Nathan Freed Wessler, le directeur adjoint du projet Speech, Privacy, and Technology au sein de l'ACLU a déclaré que, bien que la reconnaissance faciale ne soit pas réglementée par la loi fédérale, « son potentiel de surveillance de masse des communautés de couleur a conduit à juste titre l'État et les gouvernements locaux à travers le pays à interdire son utilisation par les forces de l'ordre ».
En mai dernier, l'entreprise Clearview AI avait ainsi déclaré qu'elle cesserait de proposer sa technologie à des sociétés privées, la réservant aux seules forces de l'ordre. Quelques mois plus tard, les 2 400 organismes de maintien de l'ordre qui y ont recours vont pouvoir en profiter pleinement.
Source : The Verge, The New York Times