IA et robots tueurs : Musk, Hawking et bien d'autres signent une lettre ouverte

Audrey Oeillet
Publié le 28 juillet 2015 à 13h01
Elon Musk, Stephen Hawking, Noam Chomsky et bien d'autres représentants des sciences et des nouvelles technologies ont signé une lettre ouverte mettant en garde contre l'usage de l'intelligence artificielle pour alimenter des armes autonomes. Il s'agit d'une nouvelle tentative de mobilisation vis-à-vis des risques de l'IA.

A l'heure où la robotique et l'intelligence artificielle ne cessent d'évoluer et se rapprochent de plus en plus, les grands pontes des sciences et des technologies continuent d'évoquer les risques liés à un développement de l'intelligence artificielle mal encadré. C'est sur le site du Future of Life Institute, l'organisme qu'Elon Musk a récemment financé à hauteur de 10 millions de dollars, que l'on trouve depuis lundi une lettre ouverte destinée aux « chercheurs en robotique et intelligence artificielle ».

« Les kalachnikovs de demain »

Éliminer des cibles sans intervention humaine, avec une précision chirurgicale et en toute autonomie : les machines intelligentes développées par les armées pourraient bientôt devenir réalité selon cette lettre ouverte. « L'intelligence artificielle et la technologie ont atteint un point tel que le déploiement de ce type de système devrait - techniquement, sinon légalement - être réalisable dans les années, et non les décennies, à venir. Les enjeux sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la guerre, après la poudre et les armes nucléaires. »

Si la lettre ne manque pas de souligner que l'usage de telles armes intelligentes pourrait permettre de minimiser les pertes humaines en temps de guerre, elle met en garde contre une course à l'armement qui pourrait s'engager à partir du moment où une puissance militaire commencerait à présenter des technologies de ce type. « La conclusion d'une telle situation serait évidente : les armes autonomes deviendraient les kalachnikovs de demain. »

035C000008122850-photo-terminator.jpg

Partant du principe que développer ce type d'armes serait moins coûteux et compliqué que de concevoir des armes nucléaires, il sera plus aisé pour des organisations de tous bords, y compris terroristes, d'en disposer. Une accélération non encadrée d'un tel développement pourrait, par ailleurs, échapper à tout contrôle : c'est l'une des principales craintes des détracteurs de l'IA, qui ont peur que cette dernière ne finisse par dépasser dangereusement l'humain.

Un sujet évoqué aux Nations Unies

Signée par plusieurs centaines de chercheurs et scientifiques, cette lettre ouverte cherche, une nouvelle fois, à mobiliser les chercheurs et l'opinion publique contre les dangers d'une « science sans conscience ». Ce n'est pas la première initiative ou intervention de ce genre. Ces dernières années, de grands noms comme Stephen Hawking, Elon Musk ou encore Bill Gates ont fait part de leurs inquiétudes concernant l'évolution rapide des intelligences artificielles.

Quant au sujet des « robots tueurs » capables de prendre leurs propres décisions, il a fait l'objet d'un débat au sein des Nations Unies en 2014, même si ce dernier n'a pas fait autant de bruit qu'espéré. Cette nouvelle mise en garde mettra peut-être de l'huile sur le feu.

A lire également :
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles