Invité à un événement organisé par le MIT, Yoshua Bengio, l'un des papas du deep learning, s'est exprimé sur les perspectives d'avenir de l'intelligence artificielle. L'intéressé, qui n'a pas cédé aux sirènes des GAFAs, préférant conserver son poste de professeur au sein de l'Université de Montréal, dénonce notamment le phénomène de « course à l'armement » observé sur ce secteur et souhaite rendre l'IA plus accessible aux pays en voie de développement.
A l'heure des data-centers et de la collecte sauvage de données vouées à alimenter les algorithmes des géants de la tech, l'avis de Yoshua Bengio dénote. Pour lui, l'idée d'agir pour le « bien commun » devrait dominer les débats en matière de développement d'IA. Une approche, raisonnable et raisonnée, que le spécialiste du deep learning a pu détailler au cours d'un entretien avec le magazine MIT Technology Review.
Une affaire collégiale et non la responsabilité de quelques-uns
Inclure des chercheurs issus des pays émergents est au cœur de l'argumentaire de Yoshua Bengio. Il pointe ainsi que le domaine du deep learning reste pour l'heure le pré carré de quelques grandes firmes européennes, américaines et éventuellement chinoises. Une problématique majeure dans un monde de la Tech en proie à une polarisation est-ouest de plus en plus apparente.« L'inclusion doit être plus qu'une simple expression nous permettant d'avoir bonne conscience », a-t-il expliqué. « L'utilité de l'IA dans les pays en voie de développement est encore plus grande. Ils ont encore plus besoin d'améliorer la technologie que nous, et ils ont des besoins différents ». Selon lui, accroître la « démocratie sur le secteur de la recherche en IA » est par ailleurs nécessaire pour éviter que le deep learning ne devienne le monopole de quelques acteurs du marché seulement. « Il est dangereux de laisser trop de pouvoir se concentrer entre les mains de quelques-uns », a-t-il estimé.
L'épanouissement et la pérennité, de l'IA en tant que technologie passeraient ainsi par sa démocratisation. Et d'après Yoshua Bengio, l'IA et le deep learning devraient en outre n'être employés qu'à des fins civiles. De quoi renvoyer dans les cordes Google et ses récentes velléités guerrières (la firme avait en effet signé un contrat avec l'Armée américaine autour de l'IA, avant de se raviser en juin dernier).
Yoshua Bengio exècre les applications militaires de l'IA
C'est par un simple « Je m'y oppose fermement » que le chercheur canadien (né à Paris) a répondu à une question portant justement sur les applications militaires de l'intelligence artificielle. Un domaine d'activité que Bengio ne semble pas porter en très haute estime. « Nous devons rendre immoral le fait d'avoir des robots tueurs », a-t-il déclaré, pointant toutefois que « rien ne nous empêche de développer des technologies défensives » pour lutter contre des « États voyous » qui, eux, développeraient des machines offensives.« Il y a une grosse différence entre créer des armes défensives qui abattront des drones et développer des armes offensives qui cibleraient des humains. , toutes deux peuvent utiliser de l'IA », a poursuivi l'intéressé.
Former les militaires au deep learning ?
Quant à la perspective d'envoyer des experts en IA conseiller l'Armée en matière de deep learning, Bengio est tout aussi réticent. « Si avaient des valeurs morales, pourquoi pas. Mais je ne fais pas complètement confiance aux organisations militaires, parce qu'elles tendent à faire passer le devoir avant la morale ». En clair, pour Yoshua Bengio, l'IA se doit de rester pacifique pour profiter à l'homme, et ce même si cette dernière « ne sera jamais parfaite ».Selon le chercheur, le principal frein au développement de l'IA à l'heure actuelle se résume en partie à l'absence de « bons algorithmes » dédiés à la causalité. Un concept qui échapperait encore bien trop à nos machines. Yoshua Bengio reste malgré tout confiant : « Je pense que si suffisamment de personnes travaillent sur ce point, et qu'elles le considèrent comme étant important, alors nous verrons des avancées ».