L'intelligence artificielle va avoir besoin de règles pour assurer une utilisation sécurisée.
Et cet avertissement ne vient pas de n'importe qui, puisque c'est le patron de NVIDIA, Jensen Huang, qui en est à l'origine. Il a profité d'un déplacement en Suède pour discuter de l'avenir de l'IA, à un moment où tout le monde en parle.
L'IA, aussi utile que dangereuse
Cette semaine, un événement était organisé en Suède pour annoncer la mise à jour du superordinateur Berzelius à l'aide des derniers systèmes d'IA en date de NVIDIA. Le patron du leader mondial du calcul informatique, Jensen Huang, en a profité pour discuter de l'avenir de cette technologie qui fait les gros titres depuis plusieurs semaines grâce à ChatGPT.
Pour ce dernier, il est nécessaire de réfléchir aux règles et aux normes sociales qui devront être appliquées à l'intelligence artificielle pour éviter les dérapages, et ce, dès à présent. « Si vous prenez un peu de recul et que vous réfléchissez à toutes les choses de la vie qui sont pratiques, essentielles ou merveilleuses pour la société, elles ont probablement aussi un potentiel de nuisance », a-t-il plaidé.
Des standards pour assurer la sécurité
Pour l'homme d'affaire, il est ainsi nécessaire d'établir des organismes qui produiront des standards sur l'ingénierie de l'IA similaires à ceux que l'on peut retrouver dans le monde médical. En parallèle, Jensen Huang estime que le législateur aura lui aussi un rôle à jouer.
« Quelle est la norme sociale pour l'utilisation [de l'intelligence artificielle] ? Quelles sont les normes juridiques pour son utilisation ? » a-t-il ainsi demandé. Il se réjouit toutefois que le débat soit ouvert : « Tout évolue en ce moment. Le fait que nous en parlions tous nous met dans une bonne […] position. »
NVIDIA est bien placée pour discuter de la question, ses puces étant très utilisées pour le développement des technologies d'IA. Ce sont elles que Microsoft a utilisées pour créer le superordinateur d'OpenAI, la firme dans laquelle le groupe vient d'annoncer des investissements très importants.
Source : Reuters