L'un des pères du deep learning est inquiet de l'avenir de l'intelligence artificielle

Nathan Le Gohlisse
Par Nathan Le Gohlisse, Spécialiste Hardware.
Publié le 23 novembre 2018 à 09h02
Yoshua Bengio
© École polytechnique - J.Barande

Invité à un événement organisé par le MIT, Yoshua Bengio, l'un des papas du deep learning, s'est exprimé sur les perspectives d'avenir de l'intelligence artificielle. L'intéressé, qui n'a pas cédé aux sirènes des GAFAs, préférant conserver son poste de professeur au sein de l'Université de Montréal, dénonce notamment le phénomène de « course à l'armement » observé sur ce secteur et souhaite rendre l'IA plus accessible aux pays en voie de développement.

A l'heure des data-centers et de la collecte sauvage de données vouées à alimenter les algorithmes des géants de la tech, l'avis de Yoshua Bengio dénote. Pour lui, l'idée d'agir pour le « bien commun » devrait dominer les débats en matière de développement d'IA. Une approche, raisonnable et raisonnée, que le spécialiste du deep learning a pu détailler au cours d'un entretien avec le magazine MIT Technology Review.

Une affaire collégiale et non la responsabilité de quelques-uns

Inclure des chercheurs issus des pays émergents est au cœur de l'argumentaire de Yoshua Bengio. Il pointe ainsi que le domaine du deep learning reste pour l'heure le pré carré de quelques grandes firmes européennes, américaines et éventuellement chinoises. Une problématique majeure dans un monde de la Tech en proie à une polarisation est-ouest de plus en plus apparente.

« L'inclusion doit être plus qu'une simple expression nous permettant d'avoir bonne conscience », a-t-il expliqué. « L'utilité de l'IA dans les pays en voie de développement est encore plus grande. Ils ont encore plus besoin d'améliorer la technologie que nous, et ils ont des besoins différents ». Selon lui, accroître la « démocratie sur le secteur de la recherche en IA » est par ailleurs nécessaire pour éviter que le deep learning ne devienne le monopole de quelques acteurs du marché seulement. « Il est dangereux de laisser trop de pouvoir se concentrer entre les mains de quelques-uns », a-t-il estimé.

L'épanouissement et la pérennité, de l'IA en tant que technologie passeraient ainsi par sa démocratisation. Et d'après Yoshua Bengio, l'IA et le deep learning devraient en outre n'être employés qu'à des fins civiles. De quoi renvoyer dans les cordes Google et ses récentes velléités guerrières (la firme avait en effet signé un contrat avec l'Armée américaine autour de l'IA, avant de se raviser en juin dernier).

Yoshua Bengio exècre les applications militaires de l'IA

C'est par un simple « Je m'y oppose fermement » que le chercheur canadien (né à Paris) a répondu à une question portant justement sur les applications militaires de l'intelligence artificielle. Un domaine d'activité que Bengio ne semble pas porter en très haute estime. « Nous devons rendre immoral le fait d'avoir des robots tueurs », a-t-il déclaré, pointant toutefois que « rien ne nous empêche de développer des technologies défensives » pour lutter contre des « États voyous » qui, eux, développeraient des machines offensives.

« Il y a une grosse différence entre créer des armes défensives qui abattront des drones et développer des armes offensives qui cibleraient des humains. , toutes deux peuvent utiliser de l'IA », a poursuivi l'intéressé.

Former les militaires au deep learning ?

Quant à la perspective d'envoyer des experts en IA conseiller l'Armée en matière de deep learning, Bengio est tout aussi réticent. « Si avaient des valeurs morales, pourquoi pas. Mais je ne fais pas complètement confiance aux organisations militaires, parce qu'elles tendent à faire passer le devoir avant la morale ». En clair, pour Yoshua Bengio, l'IA se doit de rester pacifique pour profiter à l'homme, et ce même si cette dernière « ne sera jamais parfaite ».

Selon le chercheur, le principal frein au développement de l'IA à l'heure actuelle se résume en partie à l'absence de « bons algorithmes » dédiés à la causalité. Un concept qui échapperait encore bien trop à nos machines. Yoshua Bengio reste malgré tout confiant : « Je pense que si suffisamment de personnes travaillent sur ce point, et qu'elles le considèrent comme étant important, alors nous verrons des avancées ».
Nathan Le Gohlisse
Spécialiste Hardware
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (4)
JacquesBolo

Outre que l’idée de limiter les recherches militaires est illusoire, le principe de l’IA lui-même exclut la programmation impérative: un robot tueur pourrait décider de ne pas tuer (ce qui ne devrait pas plaire aux militaires). Sinon, ce n’est d’IA qu’il s’agit!

whitewidow13

IA ne veut pas forcément dire “robot conscient et autonome” !

Nmut

Si tu prends le problème dans l’autre sens (de quoi a besoin un robot conscient et autonome?), tu comprends mieux les craintes de Yoshua Bengio, non?

carinae

oui et d’ailleurs … le robot ne sera t’il pas a l’image de l’homme ? En clair ne fera t’on pas faire au robot ce que l’homme ne veut pas(ou plus faire) ?
Doit-on faire passer le devoir avant la moral ? (et c’est pas Yoshua Bengio qui va y répondre)? Pourquoi avons nous besoin des robots et de l’IA … tout ça tout ça quoi !! :slight_smile:
Quant a l’utilité de l’IA dans les pays en voie de développement ça m’étonnerait que dans un premier temps ils en voit la couleur gratuitement en sachant que ce sont des technologies qui ont demandé un pognon monstre en R&D …ce sont des clients comme les autres quoi …

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles