La ministre française des Armées ne veut pas des technologies autonomes dans les conflits

Alexandre Boero
Par Alexandre Boero, Journaliste-reporter, responsable de l'actu.
Publié le 08 avril 2019 à 11h45
Florence Parly
Alexandros Michailidis / Shutterstock.com

Florence Parly a apporté toute la modération possible quant à l'utilisation de l'intelligence artificielle dans les conflits armés, dans un discours prononcé vendredi.

« Pas un jour ne passe sans qu'on ne parle d'intelligence artificielle, de ce qu'elle promet de révolutionner dans nos vies quotidiennes, des investissements massifs réalisés par toutes les grandes puissances étatiques comme économiques ». Dans un discours prononcé à Saclay le 5 avril 2019, la ministre des Armées, Florence Parly, a renouvelé la volonté de l'État de miser sur l'intelligence artificielle, dans le sillage de ce que souhaite le président Emmanuel Macron. Mais sans pour autant tomber dans certains excès.

Une IA qui s'avère indispensable pour lutter sur le plan international

Consciente des bénéfices potentiels de l'intelligence artificielle pour le ministre des Armées et ses nombreux acteurs, Florence Parly a rappelé que les Armées françaises continueront d'investir dans l'IA, jugée « indispensable pour garantir notre supériorité opérationnelle ».

Grâce à l'IA, les possibilités sont infinies. Elle permet d'anticiper des situations qui pourraient devenir fâcheuses. Florence Parly prend notamment l'exemple d'un projet que développe la Marine Nationale. Celle-ci travaille sur une plateforme d'analyse en temps réel du trafic maritime au niveau planétaire, qui lui permettra bientôt de détecter des navires qui dévieraient de leur trajectoire habituelle sans prévenir. D'autres situations pourraient être appréhendées grâce à l'utilisation de l'intelligence artificielle intégrée à la robotique, comme l'évacuation des blessés ou le déminage d'un terrain.

« L'IA ce n'est ni plus ni moins que la garantie du plus haut niveau de protection des Français », martèle la ministre.

« Terminator ne défilera pas au 14 juillet »

Seulement, l'État français s'estime responsable et se veut précautionneux. Se pose notamment la question de systèmes d'armes létaux, les fameux SALA (Systèmes d'armes létales autonomes), parfois surnommés « robots-tueurs ». Ces engins intelligents pourraient adapter leur comportement à une situation sur zone, sans supervision humaine. À ce sujet, Florence Parly adopte une position claire : « La France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain. [...] Terminator ne défilera pas au 14 juillet ».

Pour prévenir toute utilisation extérieure de tels robots, la France milite pour un consensus solide avec les autres États du globe, à qui elle voudrait imposer trois principes fondamentaux en matière d'intelligence artificielle dans les Armées : le respect du droit international, le maintien d'un contrôle humain suffisant et la permanence de la responsabilité du commandement.

Florence Parly a par ailleurs annoncé la création dès 2019 d'un comité d'éthique ministériel sur les sujets de défense. Outre les interrogations éthiques, l'organe devrait aider à la décision et à l'anticipation.

Alexandre Boero
Journaliste-reporter, responsable de l'actu
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Wehrmicel

Vaut mieux envoyer des humains se faire exploser, c’est sûr.

Popoulo

Et ce, contre des machines de préférence, car les autres, vont pas faire autant de chichis.

Palou

à partir du moment où il y aura de l’IA dans les armées, plus besoin de ministre, elle perdra son poste entre autre …

Wehrmicel

C’est pas une grande perte.

carinae

je ne pense pas que cela soit dit dans ce sens la mais plutot dans le sens “si on donne le pouvoir a des machines de decider et de pouvoir tuer … on part au devant de gros ennuis …” (bugs, piratage …)

tampigns

J’ai peur que le ministère s’arrete aux grandes lignes au lieu de ne filtrer que la partie du choix de tuer.
D’un autre côté, à mon avis, on doit déjà avoir pas mal d’IA dans les équipements militaires

sandalfo

c’est clair. C’est bien d’avoir de l’ethique mais en cas de conflit armé, les 2/3 du globes n’en ont rien à foutre. Dommage d’envoyer des hommes se faire tuer contre des robots.

exoje

Une MAJ de la convention de Genève en vue ? Aka le guide d’achats des armées conventionnelles, vous savez les fameux écrits qui vous dicte la meilleure façon de tuer, pour que ça soit propre etc… parce que oui en guerre il faut faire attention à la façon dont vous tuez l’adversaire, pas de lance-flamme mais des bombardements à l’AC-130 ça passe vous comprenez ? Ou pas de mine AP mais des drones aux lances roquettes ça le fait, vous comprenez la différence n’est-ce pas ?

carinae

possible en effet … l’IA pose un probleme d’ethique … Tant que c’est l’homme qui decide …
C’est un peu le même probleme qu’avec les pilotes de drones. Difficile d’aprehender totalement une situation
en etant a des milliers de kilometres de la zone d’action.

mk2

En gros elle dit non à SKYNET… celà dit parfois vaut mieux envoyer un drone (piloté par un humain) que avoir des pertes humaines.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles