Un drone Kargu-2 de ce type aurait été utilisé pour traquer et éliminer des cibles sans contrôle humain direct. Crédits: STM
Un drone Kargu-2 de ce type aurait été utilisé pour traquer et éliminer des cibles sans contrôle humain direct. Crédits: STM

Depuis quelques semaines, la presse du monde entier s’agite autour de la question des « robots tueurs ». En cause, un rapport de l’ONU sur le conflit libyen datant du mois de mars, qui décrirait pour la première fois une attaque de drone sans intervention humaine. De quoi raviver toutes les frayeurs cristallisées autour des « robots-tueurs », et l'occasion de rappeler le besoin de régulation à l’échelle internationale.

Pourtant, si la militarisation des drones reste un sujet d’inquiétude légitime, les « robots-tueurs » devraient rester encore longtemps cantonnés aux œuvres de science-fiction.

Comment les drones sont devenus autonomes

L’utilisation de drones militaires remonte à la guerre du Viêtnam, même si la généralisation de ce type d’aéronefs se fait à partir des années 1980. Initialement conçus pour obtenir du renseignement sans risquer la vie d’un pilote, certains modèles se sont vus peu à peu dotés de fonctionnalités plus offensives. Autrement dit, quitte à observer l’ennemi et à renvoyer le flux vidéo en temps réel vers l’observateur au sol, pourquoi ne pas utiliser le drone pour attaquer directement l’adversaire ?

Deux familles de systèmes ont alors été développés. Le premier, que l'on retrouve sur les drones américains Predator et Reaper, permet d'embarquer des armes sous les ailes de l’appareil, qui devient un « drone d’attaque ». Avec l'autre système, et c’est l’approche privilégiée par Israël avec Harop ou Harpy, le drone d’observation lui-même peut se transformer en arme en se précipitant sur une cible. On parle alors de « drone suicide » ou de « munition rôdeuse ».

Mais dans tous ces cas de figure, ces engins de mort volants restent pilotés à distance. Si les drones modernes arrivent généralement à voler, voire à décoller et atterrir de manière automatisée, les capteurs optroniques embarqués et les armements restent contrôlés en temps réel par des opérateurs humains. Pour les plus petits drones, la portée des ondes radio limite le champ d'action à quelques kilomètres, mais les plus gros modèles embarquent des antennes de communication satellite. À chaque fois, l'essentiel pour les utilisateurs est de conserver « l'humain dans la boucle ». Après tout, la mission première du drone reste de servir de capteur déporté pour les opérateurs.

Les drones Reaper ne sont pas des "robots-tueurs", puisqu'ils restent pilotés à distance. Cependant, leur utilisation intensive dans pour assassinats ciblés avait déjà soulevé de vives critiques partout dans le monde. Crédits: General Atomics
Les drones Reaper ne sont pas des "robots-tueurs", puisqu'ils restent pilotés à distance. Cependant, leur utilisation intensive dans pour assassinats ciblés avait déjà soulevé de vives critiques partout dans le monde. Crédits: General Atomics

Pourtant, l'attaque de drone mentionnée dans le rapport de l’ONU publié en mars dernier, aurait été faite, pour la première fois, sans intervention humaine. Autrement dit, un quadricoptère Kargu-2 d’origine turque, après avoir perdu la liaison radio avec son opérateur humain, aurait tout de même poursuivi sa mission, sélectionné et attaqué une cible humaine, sans que l’on sache encore si cette attaque a fait des victimes.

Dès lors, pour beaucoup d’observateurs, une limite aurait été franchie. Les drones ne seraient plus strictement soumis au contrôle (déjà discutable) des opérateurs humains. Leurs capacités létales pourraient désormais être contrôlées par les seules IA, soulevant de gigantesques problèmes éthiques et légaux. Mais, à bien y regarder, est-ce vraiment une nouveauté ? Les drones peuvent-ils réellement devenir des « robots-tueurs » ?

Autonomie et décision : quelles limites technologiques ?

Depuis quelques années, la généralisation des « drones-kamikaze », ou « munitions vagabondes », tend à rendre de plus en plus floue la frontière entre missiles et drones. Cette nouvelle catégorie de munitions s'est développée en même temps que les nouvelles technologies grand public, exploitant à la fois la miniaturisation des caméras et des liaisons de données numériques de plus en plus sécurisées. Dès lors, un simple drone commercial équipé d'une petite charge militaire peut devenir un mini-missile téléguidé bon marché.

Dès lors, ce n'était qu'une question de temps avant que certains « drones-kamikazes » soient dotés d’un mode d'action présent depuis des décennies sur certains missiles : « l'accrochage après le tir ». Ce mode permet à un missile d’être tiré vers une zone prédéterminée sans que l’opérateur humain ne sache précisément où se trouve la cible. Utilisant sa tête chercheuse radar ou optronique, des algorithmes de reconnaissance de cibles et une bibliothèque d'images préenregistrée avant le tir, le missile est chargé de trouver et détruire sa cible par lui-même. On peut alors parler de guidage autonome, même si la désignation de la cible reste indirectement le fait des opérateurs, à qui revient la responsabilité de définir correctement les paramètres du missile.

Plus que son mode de guidage, c'est l'utilisation d'un drone comme arme antipersonnelle (assassinat ciblé) qui soulève un énorme problème éthique. Crédits: STM

Dans le cas des « drones-kamikazes », la situation est encore différente. Par définition, l'intérêt du drone réside dans sa liaison de données, qui en fait un capteur déporté pour l'opérateur humain. Mais avec l'arrivée d'algorithmes de reconnaissance faciale, disponibles sur GitHub, et compatibles avec certains mini-drones commerciaux, des drones militaires comme le Kargu-2 ont rapidement été transformés en « missiles antipersonnel ».

Techniquement, ce type d’engins ne dispose pas de la puissance de calcul ni des algorithmes nécessaires pour choisir seul sa cible, et encore moins pour décider de l’attaquer. Toute attaque, avec ou sans liaison permanente, avec ou sans reconnaissance faciale, reste le résultat d’un ordre humain direct. Il n'y a donc pas de « réflexion » ou de « prise de décision indépendante » de la part du drone.

Qu’a-t-il pu se passer en Libye ?

Dans le cadre libyen, d'après certaines rumeurs, un Kargu-2 aurait ciblé un combattant retranché, potentiellement via une reconnaissance faciale. Dans tous les cas, il est très improbable que le drone ait été déployé intégralement en mode autonome, le risque de tir fratricide ou de dommages collatéraux étant trop important.

Par contre, il est possible que durant le vol, l'opérateur ait attribué une cible au drone, soit par « simple » identification visuelle, soit via une reconnaissance faciale, deux modes d'attaque qui ne nécessitent pas d'humain dans la boucle. Dans le premier cas de figure, il ne s'agirait absolument pas d'une première mondiale.

Et si le second cas de figure peut paraître bien plus inquiétant aux yeux des experts, c'est surtout parce que les technologies actuelles de reconnaissance faciale automatique sont bien moins performantes que le suivi automatique d'une cible préalablement identifiée par un humain, via la liaison de données.

Il est également possible que le cas décrit par le rapport de l’ONU ne soit pas une attaque autonome. À l’heure actuelle, les faits rapportés manquent de précision, et pourraient tout à fait correspondre à une attaque de drone classique, avec un opérateur peu entraîné, ou particulièrement tenace, à l’autre bout de la liaison de données.

La prolifération des drones armés : un véritable problème international

Dès lors, doit-on balayer d’un revers de la main la menace soulignée par le rapport de l’ONU ? Certainement pas ! Il serait cependant assez contre-productif de se focaliser uniquement sur le bannissement des « robots-tueurs »,alors que le problème est bien plus large, et que la définition même de « robots-tueurs » est encore loin d'être figée.

Indépendamment des technologies embarquées à bord des drones, leur bas coût permet aujourd'hui une véritable prolifération qui dépasse de très loin les seules forces armées. Crédits: Shutterstock

En effet, la véritable problématique ne concerne pas intrinsèquement le niveau d’autonomisation des drones. Des missiles bien plus destructeurs, et disposant d’IA nettement plus avancées, sont capables de reconnaissance de cible automatique depuis des décennies, sans que l’on observe de mouvement de panique lié aux « missiles-tueurs ». Si certains drones se voient dotés d'algorithmes de reconnaissance faciale, il s'agit plutôt pour le moment d'un « outil du pauvre » imprécis plutôt que d'équipements high-tech, qui cherchent au contraire à être aussi précis et fiables que possibles.

Pour les spécialistes, la véritable inquiétude ne porte pas tant sur la sophistication technologique des drones que sur le manque de recul et de maturité des technologies embarquées, et surtout sur la prolifération de ces nouveaux engins abordables, aussi bien dans les forces armées que dans les groupes terroristes. Les derniers conflits ont déjà démontré que des « drones-kamikazes » low-cost pouvaient détruire des batteries anti-aériennes de plusieurs millions de dollars, et que des quadcoptères DJI bricolés pouvaient détruire des chars d'assaut. L'idée que des drones légers dotés de reconnaissance faciale rudimentaire puissent tomber entre les mains de n'importe quels insurgés inquiète alors bien plus que le développement de robots high-tech dignes des plus effrayantes œuvres de science-fiction.

Les robots ne deviendront pas des tueurs

Dans un tel contexte, la menace n’est donc pas vraiment le « robot-tueur », capable de comprendre la situation tactique et de choisir seul sa cible, mais plutôt la prolifération des drones tout court. Si la science-fiction ne manque pas d’exemples de révolte des machines ou de robots fous se retournant contre leurs créateurs, les chances de voir de tels phénomènes généralisés à court ou moyen terme sont proches de zéro.

Même si un drone venait à échapper au contrôle de son opérateur, il n’aurait pas de raison de désobéir à sa programmation. Et même si cela devait arriver, ou s’il était piraté, il s’agirait d’un événement isolé, que les opérateurs ne laisseraient pas se reproduire.

Image extraite du film Terminator. Les "robots-tueurs" volants, qui traquent et attaquent leurs cibles en toute autonomie, sont monnaie courante dans la science-fiction. Malgré les avancées technologiques, ils devraient rester cantonner aux oeuvres de fiction pour encore quelques années

Après tout, plus que quiconque, les militaires ont besoin d’avoir un contrôle absolu sur leur matériel, et d’éviter toute ambiguïté sur le champ de bataille. Les industriels de l'armement sont aussi, globalement, opposés à l'apparition d'armements véritablement autonomes. De plus, les drones et autres robots terrestres, comme les « missiles intelligents », disposent d’une autonomie énergétique et logistique extrêmement limitée. Même en cas de piratage de masse, la « révolte des machines » qui s’en suivrait s’épuiserait d’elle-même en quelques heures à peine.

De fait, dans un avenir proche, l’humanité dans son ensemble n’a pas à s’inquiéter des « robots-tueurs » à proprement parler. Par contre, nous pourrions avoir besoin, collectivement, d’imposer un certain contrôle sur ce nouveau type de munitions que sont les « drones-kamikazes ». Qu’ils soient à guidage autonomes ou pas, leur prolifération dans les forces armées multiplie le risque de les voir tomber entre de mauvaises mains, mais aussi celui de mauvaise manipulation. Le piratage reste également un sujet d’inquiétude, mais qui n’est pas propre aux seuls drones, à l’heure de la numérisation galopante des systèmes d’arme.

Peut-on légiférer ?

La bonne nouvelle, c’est qu’il est possible, à l’échelle internationale, de limiter la prolifération de certaines armes. Par le passé, la Convention sur les mines antipersonnel a été ratifiée dès 1997 par 131 pays, tandis que la Convention sur les armes à sous-munitions est entrée en vigueur dès 2010, avec 108 pays signataires.

La question sémantique sera au coeur d'éventuelles Conventions de régulation. Définir ce qu'est un "robot-tueur" ou en quoi consiste une "prise de décision autonome" est bien plus complexe que d'imposer une limitation de certaines fonctionnalités techniques. Crédits: USAF

À l’avenir, on peut imaginer qu’un moratoire sera proposé afin de limiter le niveau d’autonomisation des drones et robots. On pourrait également limiter leur usage antipersonnel, qui reste basé sur des algorithmes de reconnaissance faciale dont on connaît les dérives et limitations. De manière générale, l’idée d’une telle Convention serait d’éviter que se répande un nouveau type d’arme capable de frapper sans discrimination.

Malheureusement, même si une telle législation se mettait en place, il y a fort à parier que les principaux producteurs décident de ne pas en être signataires. Pour l’heure, les USA, la Chine et la Russie n’ont jamais ratifié les Conventions sur les mines et les sous-munitions. Et tout porte à croire qu’ils refuseront également de limiter leur usage des « drones-kamikazes ».