A l'heure où la robotique et l'intelligence artificielle ne cessent d'évoluer et se rapprochent de plus en plus, les grands pontes des sciences et des technologies continuent d'évoquer les risques liés à un développement de l'intelligence artificielle mal encadré. C'est sur le site du Future of Life Institute, l'organisme qu'Elon Musk a récemment financé à hauteur de 10 millions de dollars, que l'on trouve depuis lundi une lettre ouverte destinée aux « chercheurs en robotique et intelligence artificielle ».
« Les kalachnikovs de demain »
Éliminer des cibles sans intervention humaine, avec une précision chirurgicale et en toute autonomie : les machines intelligentes développées par les armées pourraient bientôt devenir réalité selon cette lettre ouverte. « L'intelligence artificielle et la technologie ont atteint un point tel que le déploiement de ce type de système devrait - techniquement, sinon légalement - être réalisable dans les années, et non les décennies, à venir. Les enjeux sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la guerre, après la poudre et les armes nucléaires. »Si la lettre ne manque pas de souligner que l'usage de telles armes intelligentes pourrait permettre de minimiser les pertes humaines en temps de guerre, elle met en garde contre une course à l'armement qui pourrait s'engager à partir du moment où une puissance militaire commencerait à présenter des technologies de ce type. « La conclusion d'une telle situation serait évidente : les armes autonomes deviendraient les kalachnikovs de demain. »
Partant du principe que développer ce type d'armes serait moins coûteux et compliqué que de concevoir des armes nucléaires, il sera plus aisé pour des organisations de tous bords, y compris terroristes, d'en disposer. Une accélération non encadrée d'un tel développement pourrait, par ailleurs, échapper à tout contrôle : c'est l'une des principales craintes des détracteurs de l'IA, qui ont peur que cette dernière ne finisse par dépasser dangereusement l'humain.
Un sujet évoqué aux Nations Unies
Signée par plusieurs centaines de chercheurs et scientifiques, cette lettre ouverte cherche, une nouvelle fois, à mobiliser les chercheurs et l'opinion publique contre les dangers d'une « science sans conscience ». Ce n'est pas la première initiative ou intervention de ce genre. Ces dernières années, de grands noms comme Stephen Hawking, Elon Musk ou encore Bill Gates ont fait part de leurs inquiétudes concernant l'évolution rapide des intelligences artificielles.Quant au sujet des « robots tueurs » capables de prendre leurs propres décisions, il a fait l'objet d'un débat au sein des Nations Unies en 2014, même si ce dernier n'a pas fait autant de bruit qu'espéré. Cette nouvelle mise en garde mettra peut-être de l'huile sur le feu.
A lire également :