La campagne Technopolice, coordonnée par La Quadrature du Net, dénonce l'expérimentation qui serait menée par la Régie autonome des transports parisiens, qui utilise l'une de ses stations comme laboratoire dédié à l'IA.
La vidéo protection constitue un outil indispensable dans la chaîne de sécurisation, en complémentarité d'une présence humaine dense et réactive. La RATP a un dispositif de vidéoprotection composé de près de 51 000 caméras (36 000 embarquées et 15 000 fixes dans les espaces). Pour l'ensemble du matériel roulant et les espaces de la RATP les images sont conservées jusqu'à 72h. Elles peuvent durant ce délai uniquement être réquisitionnées par la police dans le cadre d'enquête.
La RATP a expérimenté depuis 2016 à Châtelet-les-Halles, un dispositif de détection automatique d'évènements à partir des caméras déployées dans ses espaces. Concrètement, il s'agit d'algorithmes capable de repérer des situations anormales (mouvements de foule, comportements violents ou objets délaissés par exemple) et de donner l'alerte afin que, le cas échéant, une intervention humaine puisse être déclenchée.
Les tests réalisés dans les emprises de la RATP ont permis de mettre en avant les points positifs et les obstacles techniques et juridiques liés à ces nouvelles technologies.
Le « Lab Intelligence artificielle », qui sera lancé par la RATP au cours du 2nd semestre 2020, a pour objectif de poursuivre les expérimentations afin de suivre l'évolution des technologies et optimiser son vaste réseau de caméras vidéos au bénéfice de la sûreté des voyageurs.
L'intelligence artificielle inonde bien des domaines aujourd'hui : le sport, la santé, l'automobile, l'aéronautique, l'éducation, le transport ou la sécurité. L'une des composantes de la sécurité est encore la vidéosurveillance, mais avec le temps, on parle davantage de « vidéosurveillance intelligente. » Et qui dit vidéosurveillance intelligente dit reconnaissance faciale. Récemment, la RATP a fait de la station Châtelet-les-Halles, à Paris, un vrai laboratoire dédié à l'intelligence artificielle. Une initiative qui n'enchante pas les associations et collectifs militants.
Des expérimentations qui servent à valider des technologies
Leur plus fringant représentant, Technopolice, coordonné par La Quadrature du Net et qui lutte contre les déploiements de nouvelles technologies policières, a lancé un appel sur les réseaux sociaux, visant à dénoncer l'expérimentation menée par la RATP dans le métro et le RER parisiens.La régie parisienne, qui n'abrite pas moins de 50 000 caméras de surveillance (la France en compte un million) sur son immense réseau, « est régulièrement sollicitée par les industriels pour participer à des programmes de recherche-action visant à perfectionner la technicité des algorithmes », informe l'Institut Paris Région.
Pour l'instant, les expérimentations menées au sein de la station de Châtelet-les-Halles ne seraient pas concluantes, et ne serviraient qu'à valider des technologies. La RATP a ainsi déjà testé des algorithmes permettant de détecter diverses situations problématiques ou conflictuelles, comme des intrusions sous tunnel, des objets abandonnés, des rixes ou du maraudage.
Le Parlement européen va statuer sur l'utilisation de l'IA par la police et les autorités judiciaires
Des caméras trop anciennes causent la multiplication des faux-positifs
Mais cette dernière situation est celle qui a le plus posé problème. Au sens de l'algorithme, la position statique d'une personne maintenue pendant plus de 300 secondes dans un lieu fréquenté entrainait la détection du maraudage. L'expérimentation, menée très exactement dans la salle d'échanges du RER à la station Les Halles, a tourné au fiasco dans le sens où l'algorithme prenait les usagers qui attendaient un rendez-vous ou recherchaient un itinéraire sur leur smartphone comme des maraudeurs.Les faux-positifs s'expliqueraient en partie par la vétusté du matériel, 98% des caméras actives étant analogiques et donc peu adaptées aux algorithmes actuels utilisés.
Selon l'Institut Paris Région, a RATP indique enregistrer les images filmées au quotidien, en floutant les visages des usagers, de façon à créer une base d'apprentissage qui propulsera les prochains algorithmes, qui doivent être soumis aux conditions réelles d'espaces comme des stations de métro, avec toutes les contraintes liées à ces dernières, comme la luminosité, les vibrations et les flux aux heures de pointe).
#Technopolice
— La Quadrature du Net (@laquadrature) February 21, 2020
La @RATPgroup utilise ses stations de métro comme laboratoires pour des technologies de surveillance de masse.
Rejoignez https://t.co/uq4ju4FeRk pour organiser la lutte contre la surveillance algorithmique de nos villes ! https://t.co/eO22jN9qdZ