« The Moral Machine experiment », une étude réalisée par des chercheurs du MIT et publiée le 24 octobre, nous rappelle que la technologie n'a pas son pareil pour nous surprendre. C'est une page d'histoire qui s'écrit : avec l'avènement des voitures autonomes (entre autres), l'intelligence artificielle pourra dans un futur proche décider de vie ou de mort.
Quelle est la place de la machine dans la société d'aujourd'hui et celle de demain ? Ce questionnement n'a rien de nouveau. Il est à l'origine de bien des études et a été une source d'inspiration pour plusieurs œuvres de science-fiction.
Les machines et nouvelles technologies tiennent une place majeure dans notre quotidien. Ce qui soulève un questionnement : d'un point de vue légal et sociétal, sommes-nous prêts à accueillir les nouvelles avancées technologiques ?
La voiture autonome, de plus en plus réelle
Aussi fascinants qu'ils soient, l'existence des véhicules autonomes s'accompagne d'interrogations. L'étude menée par le professeur Iyad Rahwan et ses confrères expose le dilemme moral auquel la robotique devra se confronter dans un futur proche.En cas d'extrême urgence, faut-il donner l'autorisation à une intelligence artificielle de décider de vie ou de mort ?
Sur les routes, quand un accident est inévitable, quelle vie faut-il épargner ? Pour répondre à cette question, l'étude présente un panel décisions recueillies pour l'occasion, auprès d'un peu moins de 40 millions d'individus.
Éthiquement, moralement et socialement, même pour un être humain, il est difficile de répondre à cette question. L'étude montre que, selon les caractéristiques socio-culturelles des répondants, les choix sont différents. Certaines similitudes reviennent cependant fréquemment, comme le fait de privilégier une vie humaine à celle d'un animal.
L'IA au cœur des préoccupations sociétales et politiques
L'étude souligne la nécessité d'établir des règles avec l'appui des différentes parties concernées : les scientifiques, les autorités légales et bien entendu, les usagers de la route. Cette affirmation résonne comme un avertissement et ne manque pas de rappeler les trois lois de la robotique imaginées par l'écrivain Isaac Asimov.« Dans l'histoire de l'humanité, nous n'avons jamais autorisé une machine à décider de manière autonome de qui doit vivre ou mourir, en une fraction de seconde, sans supervision. Nous sommes sur le point de franchir cette ligne et cela ne se passera pas dans un lointain centre d'opérations militaires. Cela aura lieu au sein de l'aspect le plus banal de nos vies : le transport quotidien ».
D'après cette étude, la phase de développement d'une intelligence artificielle est cruciale, sa phase d'apprentissage en particulier. Durant celle-ci, il est impératif que l'IA soit confrontée à diverses situations et interlocuteurs afin de multiplier les sources de données. Dans le cas contraire, sans diversité, son apprentissage pourrait être biaisé.
L'approche proposée par « The Moral Machine Experiment » est basée sur ce principe d'échange d'opinions et ayant pour objectif de révéler certaines nécessités.
La première des nécessités devrait peut-être être la mise en place d'une réglementation mondiale en matière d'éthique morale, pour les algorithmes d'IA qui conduiront nos futurs véhicules et décideront de notre sort lors d'accidents.
Source : Nature.com.