Vivre ou mourir ? Quand l’intelligence artificielle décide à notre place

Célia Nannette
Publié le 25 octobre 2018 à 09h19
Voiture autonome

« The Moral Machine experiment », une étude réalisée par des chercheurs du MIT et publiée le 24 octobre, nous rappelle que la technologie n'a pas son pareil pour nous surprendre. C'est une page d'histoire qui s'écrit : avec l'avènement des voitures autonomes (entre autres), l'intelligence artificielle pourra dans un futur proche décider de vie ou de mort.

Quelle est la place de la machine dans la société d'aujourd'hui et celle de demain ? Ce questionnement n'a rien de nouveau. Il est à l'origine de bien des études et a été une source d'inspiration pour plusieurs œuvres de science-fiction.

Les machines et nouvelles technologies tiennent une place majeure dans notre quotidien. Ce qui soulève un questionnement : d'un point de vue légal et sociétal, sommes-nous prêts à accueillir les nouvelles avancées technologiques ?

La voiture autonome, de plus en plus réelle

Aussi fascinants qu'ils soient, l'existence des véhicules autonomes s'accompagne d'interrogations. L'étude menée par le professeur Iyad Rahwan et ses confrères expose le dilemme moral auquel la robotique devra se confronter dans un futur proche.

En cas d'extrême urgence, faut-il donner l'autorisation à une intelligence artificielle de décider de vie ou de mort ?

Sur les routes, quand un accident est inévitable, quelle vie faut-il épargner ? Pour répondre à cette question, l'étude présente un panel décisions recueillies pour l'occasion, auprès d'un peu moins de 40 millions d'individus.

Éthiquement, moralement et socialement, même pour un être humain, il est difficile de répondre à cette question. L'étude montre que, selon les caractéristiques socio-culturelles des répondants, les choix sont différents. Certaines similitudes reviennent cependant fréquemment, comme le fait de privilégier une vie humaine à celle d'un animal.

L'IA au cœur des préoccupations sociétales et politiques

L'étude souligne la nécessité d'établir des règles avec l'appui des différentes parties concernées : les scientifiques, les autorités légales et bien entendu, les usagers de la route. Cette affirmation résonne comme un avertissement et ne manque pas de rappeler les trois lois de la robotique imaginées par l'écrivain Isaac Asimov.

« Dans l'histoire de l'humanité, nous n'avons jamais autorisé une machine à décider de manière autonome de qui doit vivre ou mourir, en une fraction de seconde, sans supervision. Nous sommes sur le point de franchir cette ligne et cela ne se passera pas dans un lointain centre d'opérations militaires. Cela aura lieu au sein de l'aspect le plus banal de nos vies : le transport quotidien ».

D'après cette étude, la phase de développement d'une intelligence artificielle est cruciale, sa phase d'apprentissage en particulier. Durant celle-ci, il est impératif que l'IA soit confrontée à diverses situations et interlocuteurs afin de multiplier les sources de données. Dans le cas contraire, sans diversité, son apprentissage pourrait être biaisé.

L'approche proposée par « The Moral Machine Experiment » est basée sur ce principe d'échange d'opinions et ayant pour objectif de révéler certaines nécessités.

La première des nécessités devrait peut-être être la mise en place d'une réglementation mondiale en matière d'éthique morale, pour les algorithmes d'IA qui conduiront nos futurs véhicules et décideront de notre sort lors d'accidents.

Source : Nature.com.
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (9)
c_planet

pour une décision de “switcher des vies par le même nombre de vies” (à gauche deux morts, à droite deux morts) on devrait activer l’action de la non-action dans tous les cas. par contre bien foutre un coup d’accélérateur avant le crash pour être sûr de ne pas se retrouver avec un survivant paraplégique ou légume du cerveau …

PsykotropyK

“par contre bien foutre un coup d’accélérateur avant le crash pour être sûr de ne pas se retrouver avec un survivant paraplégique ou légume du cerveau …”

ahahahahahahah. un mode autodestruct pour garantir le choix?

lordypakna

Il suffit simplement d’empêcher les camionnettes blanches de circuler sur les voies réservées aux piétons.

burnit

Si l’IA est aussi nul que dans les jeux il y’a de quoi s’inquiéter.

KlingonBrain

A mon humble opinion on se trompe lourdement sur la nature des problèmes que nous aurons réellement dans le futur.

Pour le peuple, la question sera plus vraisemblablement de savoir quelle liberté lui sera laissé par ces systèmes de surveillance généralisés à base d’IA qui ne manqueront pas d'être mis en place.

Pour ceux qui en doutent, je vous incite à comprendre que la démocratie repose sur un équilibre des pouvoirs : les classes sociales au pouvoir savent qu'en cas d'abus, la révolte du peuple est possible. Un fragile équilibre que la technologie pourrait rompre si facilement pour aboutir à une Monarchie 2.0

Quand à la réponse à la question posée par cet article, à savoir qui devra être sauvé dans le cadre d'un dilemme décisionnel d'une IA dans un accident, il y a de fortes chances que si on continue à accepter que la programmation de nos objets ne soit pas transparente, ce ne soit au final pas le fruit d’une débat de société, mais ce que décideront les entreprises privées qui les fabriquent. Dit autrement, avez vous songé à souscrire à notre pack “priorité premium” qui "améliore la réponse de l'IA" en cas d'accident ?

Kriz4liD

La réponse de Mercedes est claire , Si elle sort une voiture avec une IA , le conducteur est ses passagers seront sa priorité absolue , quelque soit le dilemme en face.
un constructeur ne dira JAMAIS que sa voiture choisira entre son client et le piéton , jamais ! sinon ils ne vendront pas de voiture :slight_smile:

nirgal76

Je crois que le soucis est autre.
Une maman et son gamin dans sa poussette traverse en dehors du passage pieton. Mais si tu veux l’éviter, faut foutre un coup de volant et écraser 1 ptit vieux qui lui est bien gentillement sur le trottoir. La voiture doit faire quoi ? et toi en tant qu’humain tu fais quoi (meme si on a pas vraiment le temps de réfléchir au problème dans la vie réelle). Tu vois, Il ne s’agit pas seulement des passagers vs ceux qui sont dehors.

callsty

Moi je dirais tout simplement ( en s’appuyant sur la loi ).
Un conducteur doit être maître de son véhicule en toute circonstance. Si il y a un accident avec un usager vulnérable, le conducteur est responsable tout au moins en partie.

Pourquoi la loi est comme cela? Car s’il y a danger probable, un conducteur doit adapter sa conduite selon les circonstances. Donc en gros si un IA roule à 50 alors qu’il y a un danger visible ou supposé ou impossible à déduire visuellement, c’est bien à l’IA que l’on pourra faire un procès :slight_smile:

Un IA n’est pas infaillible et si on est obliger de se poser la question de la moralité dans un accident, c’est bien que l’on suppose que l’IA n’est pas encore assez mature pour éviter les situations à risque

dancod

Il faut toujours choisir les occupants de la voiture autonome. Si la voiture en est équipée, c’est que c’est des riches et ils valent toujours mieux que les gueux qui font les cons sur la voie publique sans l’autonomie. Les gueux méritent toujours de mourir avant la classe supérieure…
Sauf en France, dernier pays vraiment communiste au monde ou le chômeur a toujours plus de droits que celui qui se casse le cul.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles