Alors que la guerre fait rage sur les terres ukrainiennes, l'État dirigé par Volodymyr Zelensky a reçu l'aide de Clearview AI, l'entreprise américaine de reconnaissance faciale, pour « combattre la désinformation, identifier les agents russes et les morts ».
Des voix s'élèvent contre cette aide qui pourrait être utilisée pour d'autres objectifs que ceux communiqués publiquement par la direction de la start-up.
De nouvelles ressources gratuites à disposition
L'agence de presse anglaise Reuters a dévoilé hier que l'entreprise américaine controversée Clearview AI avait offert ses services de reconnaissance faciale gratuitement à l'Ukraine pour aider l'État à faire face à l'invasion russe. Selon le P.-D.G. de l'entreprise, Hoan Ton-That, joint par Reuters, le ministère de la défense ukrainien a commencé à se former à l'utilisation du logiciel ce week-end. Les objectifs affichés sont clairs : faciliter l'identification des morts, identifier des agents russes et combattre les fausses informations.
Avec sa gigantesque base de données comprenant plus de 10 milliards de photos provenant de sources aussi nombreuses que variées, Clearview AI permet à l'Ukraine d'identifier, notamment grâce aux deux milliards de photos venant du réseau social VKontakte, le Facebook russe, les agents russes opérant sur le territoire.
Selon Ton-That, la technologie de reconnaissance faciale de la firme pourra également permettre d'identifier plus facilement les morts, même si leur visage a été endommagé. Clearview AI oriente sa communication sur le positif que peut apporter l'utilisation de telles ressources, comme réunir des réfugiés ou combattre les fausses informations. Mais des voix s'élèvent sur une utilisation plus large et dangereuse qui pourrait émerger.
Un manque de contrôle dangereux
L'identification des agents russes soulève des interrogations de la part d'experts et d'observateurs, compte tenu des déboires de Clearview AI dans le domaine de la surveillance policière aux États-Unis. Le risque 0 n'existe pas et la fiabilité de l'outil est encore à améliorer, ce qui pourrait provoquer de faux positifs, entraînant potentiellement des combats ou des arrestations injustes.
« Nous allons voir une technologie avec de bonnes intentions se retourner contre nous et blesser les personnes mêmes qu'elle est censée protéger. Une fois que vous avez introduit ces systèmes et leurs bases de données associées dans une zone de guerre, vous n'avez plus aucun contrôle sur la façon dont ils seront utilisés », a déclaré auprès de Reuters Albert Fox Cahn, directeur exécutif de l'organisme américain Surveillance Technology Oversight Project (STOP). Il affirme qu'une utilisation visant à identifier les morts est la façon la moins dangereuse d'opérer ce genre de technologie, et donc potentiellement la seule valable.
Rappelons que Clearview AI fait l'objet de plusieurs enquêtes internationales et locales et que son utilisation a été interdite dans plusieurs pays pour des raisons éthiques et de protection de la vie privée. L'entreprise déclare tout de même que leur outil ne doit pas être la seule source d'identification et qu'il ne doit pas être utilisé en violation de la Convention de Genève. Nul doute que la start-up prendra les actions nécessaires si elle s'aperçoit d'une mauvaise utilisation de son outil.
Source : Reuters