Elon Musk est un magnat des technologies réputé à travers le monde, et en particulier aux Etats-Unis : il est non seulement le patron du constructeur automobile Tesla, mais également de SpaceX, qui produit notamment des lanceurs à destination des vaisseaux spatiaux de la NASA. Il n'est donc pas étonnant que son opinion concernant l'évolution de l'intelligence artificielle fasse parler d'elle.
« Je pense que nous devrions être très prudents à propos de l'intelligence artificielle. Si je devais miser sur ce qui constitue notre plus grande menace existentielle, ce serait probablement ça » a-t-il déclaré lors de l'AeroAstro Centennial Symposium du MIT. « De plus en plus de scientifiques pensent qu'il devrait y avoir une surveillance réglementée, au niveau national et même international, juste pour s'assurer que nous ne faisons rien de stupide. » (Le passage est aux environs d'1h07 dans la vidéo ci-dessous.)
« Nous invoquons un démon »
« Avec l'intelligence artificielle, nous invoquons un démon » estime même Elon Musk. « Dans toutes les histoires mettant en scène un type avec un pentagramme et de l'eau bénite, il est sûr et certain qu'il va pouvoir contrôler le démon. Sauf qu'il n'y arrive pas. »Ce n'est pas la première sortie d'Elon Musk concernant l'intelligence artificielle : après avoir lu l'ouvrage de Nick Bostrom Superintelligence, le patron de Tesla estimait en août dernier sur Twitter que « l'intelligence artificielle est potentiellement plus dangereuse que le nucléaire. »
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
— Elon Musk (@elonmusk) 3 Août 2014
La réflexion d'Elon Musk n'est pas sans rappeler celle d'un quatuor de scientifiques mené par Stephen Hawkings : en mai dernier, le physicien publiait une tribune dans le journal The Independent, exactement sur le même sujet. « Développer avec succès l'intelligence artificielle pourrait être le plus grand événement dans l'histoire de l'humanité. Malheureusement, ce pourrait aussi être le dernier » estimait-il alors. « On peut imaginer que cette technologie soit capable de déjouer les marchés financiers, de dépasser les scientifiques humains, de manipuler les dirigeants et développer des armes qu'on ne puisse pas comprendre. L'incidence à court terme de l'intelligence artificielle dépend de celui qui la contrôle, mais, à long terme, cela dépend de la possibilité concrète de la contrôler. »
L'intelligence artificielle a longtemps été le seul souci des œuvres de science-fiction et d'anticipation, mais aujourd'hui, elle est une composante bien réelle des technologies actuelles : de grandes entreprises comme Facebook, Microsoft et Google travaillent actuellement sur des programmes informatiques capable d'apprendre. Des avancées qui, couplées à celles de la robotique, laissent songeur. Les Nations Unies évoquaient en mai dernier le cas des robots tueurs, des machines autonomes capables de sélectionner leurs cibles elles-mêmes et d'engager le combat sans intervention humaine. La perspective de voir débarquer Robocop et Skynet dans le quotidien a effectivement de quoi faire froid dans le dos.