L'IA est une technologie non-négociable pour une force armée moderne © Gorodenkoff / Shutterstock
L'IA est une technologie non-négociable pour une force armée moderne © Gorodenkoff / Shutterstock

La montée en puissance de l'utilisation de l'IA dans l'armée américaine ravive les flammes du débat sur l'autonomie de ces systèmes et leurs implications éthiques. Notamment sur leur capacité à prendre des décisions létales.

Le projet Replicator de l'U.S. Air Force illustre parfaitement à quel point l'IA est devenue incontournable dans la logique de guerre : presque 6 milliards de dollars investis pour construire 2 000 chasseurs autonomes, les XQ-58A Valkyrie. Alors que les drones entièrement autonomes suscitent déjà des inquiétudes, la situation actuelle soulève une question cruciale : jusqu'à quel point peut-on autoriser une machine entièrement autonome à tuer ? Un thème qui était le pilier central de la franchise Terminator ou encore de la série Ghost in the Shell.

Avancées et applications de l'IA dans le secteur militaire

Au total, l'armée américaine est en gestion de plus de 800 projets fondés sur l'IA. Les applications de ceux-ci sont très variées : drones de surveillance (MQ-9 Reaper), véhicules autonomes (Multi-Utility Tactical Transport), système de défense aérienne (Phalanx CIWS) ou robots de soutien logistique.

Pour autant, intégrer l'intelligence artificielle au sein d'applications militaires n'est pas un processus aisé. Gregory Allen est l'ancien responsable IA au Pentagone et il exprime cette préoccupation : « le Département de la Défense peine à adopter les développements de l'IA issus des dernières avancées en matière de machine learning ». Une déclaration qui image bien les difficultés auxquelles est confrontée l'armée américaine pour implémenter l'IA dans ses opérations.

 Le MQ-9 Reaper, un drone semi-autonome utilisé par l'U.S. Air Force pour des opérations de surveillance ou d'attaque © Master Sgt. Robert W. Valenca / U.S. Air Force
Le MQ-9 Reaper, un drone semi-autonome utilisé par l'U.S. Air Force pour des opérations de surveillance ou d'attaque © Master Sgt. Robert W. Valenca / U.S. Air Force

Éthique et responsabilité de l'IA dans le militaire

Aujourd'hui, imaginer se multiplier des armes létales totalement autonomes reste une source majeure de préoccupation, surtout d'un point de vue éthique. Selon les experts, peu de doutes subsistent quant au développement massif de ce type de dispositifs au sein des forces armées américaines dans les prochaines années. En face, le Pentagone se veut rassurant et assure que « les humains seront toujours en contrôle ».

Une affirmation mise à l'épreuve tant les évolutions des technologies sont véloces et que la vitesse de traitement des données s'envole de plus en plus rapidement. Comment ne pas penser dans ce cas que l'humain sera mis au second plan, relégué à un simple rôle de supervision ?

Ambitions du projet Replicator et orientation stratégique

Même si le projet Replicator baigne encore dans quelques zones d'ombre, il représente dans tous les cas une ambition stratégique majeure : automatiser une partie de la force de frappe américaine. L'ancien directeur des forces armées du Sénat, Christian Brose, soutient sans trop de surprise cette initiative : « L'enjeu se déplace progressivement : il ne s'agit plus tant de savoir si c'est la bonne décision, mais plutôt de comment concrètement procéder, et ce, dans les délais serrés exigés ».

De plus, il faut rajouter à cela la course à la technologie entreprise avec la Chine, fortement intensifiée depuis le début des années 2000. Le projet Replicator s'inscrit parfaitement dans cette volonté du Pentagone de stimuler l'innovation militaire pour rester au niveau, voire surpasser ses ennemis sur le plan technologique. L'éthique, dans tout cela ? Si la suprématie militaire doit se passer de quelque chose, c'est bien de cette dernière, les États-Unis l'ont compris depuis longtemps.

Source : AP News, Geo