Le gouvernement britannique investit dans la recherche pour développer des systèmes d'intelligence artificielle capables d'anticiper les crimes violents, en particulier les meurtres et les agressions au couteau. Une démarche qui évoque immédiatement le film « Minority Report » et soulève de sérieuses interrogations sur les risques de biais algorithmiques, la surveillance et les libertés civiles.

Londres dystopique - © Clubic, généré par IA © Shutterstock
Londres dystopique - © Clubic, généré par IA © Shutterstock

La frontière entre la science-fiction et la réalité semble de plus en plus mince. Le Royaume-Uni finance actuellement des projets de recherche visant à utiliser l'IA pour prédire où et quand les crimes violents sont les plus susceptibles de se produire. L'objectif officiel est d'optimiser le déploiement des forces de l'ordre et de prévenir ces actes graves. Cependant, cette initiative de « police prédictive » réveille le spectre d'une société sous surveillance algorithmique et suscite de vives inquiétudes.

Comment l'IA pourrait-elle « prédire » le crime ?

Il ne s'agit pas, bien sûr, d'identifier avec certitude un futur coupable comme dans le film de Spielberg. L'approche consiste plutôt à utiliser des algorithmes d'apprentissage automatique (machine learning) pour analyser d'énormes quantités de données et détecter des schémas ou des corrélations invisibles à l'œil nu. Ces systèmes pourraient identifier des zones géographiques, des périodes ou des contextes présentant un risque statistiquement plus élevé de voir survenir des crimes violents.

Les données utilisées pour entraîner ces modèles sont cruciales et variées : statistiques criminelles historiques, indicateurs socio-économiques des quartiers, données de localisation, densité de population, voire potentiellement des informations issues de la vidéosurveillance ou d'autres sources. En identifiant ces "points chauds" prédictifs, l'IA est censée permettre une allocation plus ciblée et proactive des ressources policières, contrastant avec une approche purement réactive après les faits.

Des questions éthiques inévitables

Si l'intention peut sembler louable, la police prédictive basée sur l'IA est loin d'être une solution miracle et comporte des risques considérables, déjà observés dans d'autres contextes. Le principal danger réside dans le biais algorithmique. Si une IA est entraînée sur des données historiques qui reflètent des pratiques policières passées potentiellement discriminatoires (visant davantage certaines communautés ou quartiers), elle risque non seulement de reproduire ces biais, mais aussi de les amplifier.

© Shutterstock
© Shutterstock

Cela peut créer un cercle vicieux : l'algorithme désigne une zone comme étant « à risque », la police y intensifie sa présence, ce qui entraîne mécaniquement plus d'interpellations et d'arrestations dans cette zone, confirmant ainsi la « prédiction » initiale de l'IA et renforçant le biais pour les analyses futures. S'ajoute à cela le manque de transparence fréquent de ces « boîtes noires » algorithmiques : comment fonctionnent-elles exactement ? Sur quels critères précis se basent les prédictions ? Comment contester une décision algorithmique ? Ces questions préoccupent fortement les défenseurs des droits humains et des libertés civiles.

Minority Report : Un futur souhaitable ou un cauchemar dystopique ?

La référence à Minority Report n'est pas anodine. Bien que le projet britannique actuel semble se concentrer sur la prédiction de zones à risque plutôt que sur l'identification d'individus pré-criminels, la logique sous-jacente est similaire : agir sur la base d'une probabilité future calculée par une machine. Le fait que ce soit pour l'instant au stade de la recherche financée par le gouvernement, et non un système pleinement déployé, n'atténue que partiellement les craintes.

Les implications sociétales sont profondes. Assiste-t-on à une érosion progressive de la présomption d'innocence au profit d'une évaluation algorithmique du risque ? Comment éviter la stigmatisation de quartiers entiers désignés comme "dangereux" par une IA ? Quel impact psychologique sur les communautés qui se sentent constamment surveillées et potentiellement ciblées sur la base de leur lieu de résidence ou de leur profil socio-démographique ? La balance entre les bénéfices potentiels en matière de sécurité et les risques de dérives dystopiques est particulièrement délicate à établir.

Source : Engadget