Une ex-employée de Google alerte sur le danger de robots armés uniquement contrôlés par l'IA

Benjamin Bruel
Publié le 21 septembre 2019 à 13h40
drone essaim

Une ancienne employée de Google alarme sur le développement de robots tueurs totalement autonomes, pouvant « lancer une guerre ou causer des atrocités massives » accidentellement.

Laura Nolan, ingénieure informatique de haut niveau, avait démissionné de Google l'année dernière pour protester contre le développement de ce type de technologies.

Interdire les robots de guerre autonomes

Laura Nolan avait, en démissionnant, accusé Google de travailler sur des projets permettant de « considérablement augmenter » la puissance et la technologie des drones militaires de l'armée américaine.

Elle avait alors appelé à l'interdiction formelle et totale de machines militaires fonctionnant grâce à un système d'intelligence artificielle sans intervention humaine. Pour l'ingénieure, ces robots de guerre devraient être contrôlés en vertu des mêmes lois internationales que les armes chimiques, note The Guardian.


Laura Nolan, qui a rejoint le groupe Campaign to Stop Killer Robots, s'est exprimée devant un panel de diplomates à New-York et Genève à propos du danger des robots tueurs autonomes. « La probabilité d'un désastre est proportionnelle au nombre de ces machines se trouvant au même endroit en même temps. Vous avez affaire à des possibles atrocités et à des massacres illégaux, même sous les lois de la guerre, surtout si des centaines ou des milliers de ces machines sont déployées », a-t-elle affirmé.

Des milliers d'employés de Google s'insurgent contre le Projet Maven

Après une période de quatre ans à travailler pour l'entreprise, Laura Nolan est devenue l'une des principales ingénieures de Google en Irlande, en 2017. Elle devait travailler sur le Projet Maven, un partenariat controversé entre l'armée américaine et le géant de la tech, ayant pour ambition d'utiliser l'intelligence artificielle développée par Google sur une flotte de drones autonomes munis de caméras. En juin 2018, le Projet Maven a été abandonné par l'entreprise, notamment suite à la signature d'une pétition par plus de 3 000 de ses employés alertant sur les dangers d'une telle technologie.


Malgré sa démission, Laura Nolan explique que des armes autonomes bien plus dangereuses sont encore développées par des entreprises telles que Google et que celles-ci pourraient avoir des conséquences désastreuses. Elle affirme que des forces extérieures et des éléments inattendus, comme un simple changement soudain de météo, pourrait rendre ces machines incontrôlables et extrêmement dangereuses.

Source : The Guardian
Benjamin Bruel
Par Benjamin Bruel

Journaliste spécialisé dans le numérique, l'espace, la technologie et l'innovation, je me passionne par tout ce qui a trait au futur et à la compréhension du monde de demain. J'exerce ce métier depuis quatre ans, souvent devant mon ordinateur et parfois en vadrouille entre deux pays d'Asie. Amateur de bande dessinées, de paranormal et de dark tourism, je voue aussi un culte aux œuvres de Philip Pullman et de Yoko Taro.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
nicgrover

Skynet arrive…

nirgal76

“Vous avez affaire à des possibles atrocités et à des massacres illégaux”…ouais, une guerre quoi, elles se passent ainsi depuis des milliers d’années.

Fodger

J’allais le dire ! Les romans et films d’anticipation c’est pas pour les chiens ! Nous sommes vraiment gouvernés par des cons.

KlingonBrain

Une ex-employée de Google alerte sur le danger de robots armés uniquement contrôlés par l’IA

C’est vrai qu’avec un humain taré aux commandes, on se sent tout de suite plus rassuré…

…ou pas.

KlingonBrain

Ceux que nous élisons sont par définition les crabes qui ont reussi à surnager au dessus du panier.

Ce sont les meilleurs “compétiteurs”, les meilleur démagogues, mais rarement ceux qui ont les meilleures qualités morales et un vrai projet.

icejedi

Le truc, c’est qu’un système informatique fini en général toujours par bugguer à un moment ou à un autre, sans compter les risques de piratage.

Al_Jardine

Un lien avec le fait que ce soit une « ex » employée …?

Niverolle

Bah ce que je constate au quotidien (car on utilise déjà des IA au quotidien pour le traitement et l’analyse, par exemple pour identifier les individus à leur démarche), c’est que le contrôle par un humain n’est qu’un vœu pieux. En effet, si l’expertise en data science de l’équipe qui supervise le drone est limitée, personne ne va jamais remettre en cause l’analyse de l’IA.
Car, il faut bien comprendre que le nœud gordien de cette histoire, c’est que l’IA est irrésistiblement sexy pour nos énarques : outre qu’elle ne mange pas de pain, et qu’elle est super rapide, elle permet surtout de se débarrasser des experts qui ont justement la légitimité pour dire “non” ou pire “monsieur le président, vous ne comprenez pas que vous ne comprenez pas”.
Car il faut bien comprendre qu’un réseau de neurones n’est pas un système “compliqué” mais bien un système “complexe”. Ce n’est pas une petite nuance, car cela veut dire que le réductionnisme n’est plus d’aucune aide pour en appréhender le fonctionnement et que nous somme dans l’impossibilité d’apporter une quelconque preuve de programme. Dit autrement, on est incapable de garantir que ça ne va pas m…r, n’y même d’expliquer ce qui c’est exactement passé suite à une m…e. L’exemple le plus fameux étant la Tesla qui file sans la moindre hésitation sous une remorque de camion, probablement (tout est dans ce “probablement”) par interprétation abusive de l’obstacle en simples panneaux de circulations situés au dessus des voies.
Mais pour moi, le piège le plus important, et qui est déjà en train de ce refermer, c’est que l’on prend la mauvaise habitude de se reposer sur ces IA, sans même essayer de percer le secret de leur efficacité. Car dans bien des cas, elles font mieux que ce qu’un expert obtiendrait avec des outils mathématiques plus classiques (mais parfaitement compris eux).
Et si on pousse le raisonnement jusqu’au bout, cela donne : pourquoi continuer à réfléchir si j’ai une IA qui peut le faire à ma place ?

Saulofein

LOL, tes fameux films d’anticipation sont basés sur de la fiction… ne prend pas l’imagination débordante de certains romanciers pour des prédictions fiables…

Blackalf

Certains ont pourtant eu le nez vraiment creux ^^

En 1946, bien avant Internet, l’écrivain américain Murray Leinster a écrit ceci :

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles