© Shutterstock.com
© Shutterstock.com

Plus de 1 000 personnes, dont Elon Musk, ont cosigné une lettre appelant à l'interruption immédiate et pendant six mois du développement des intelligences artificielles (IA) plus puissantes que GPT-4.

La course à l'IA engendrée par la sortie de ChatGPT à la fin 2022 préoccupe de plus en plus les experts.

Le déploiement de l'IA jugé trop rapide

Publiée à travers l'ONG Future of Life Institute, la lettre tire la sonnette d'alarme quant à la rapidité avec laquelle le monde de la tech travaille et déploie les outils d'intelligence artificielle. Les immenses possibilités offertes par l'IA générative ont incité les rivaux d'OpenAI à accélérer sur le développement de modèles linguistiques similaires à GPT. En parallèle, de plus en plus d'entreprises intègrent cette technologie à leurs produits.

L'intensification de la concurrence pousse les firmes à devenir plus secrètes sur leurs systèmes respectifs. Sans ces informations, la société n'est pas en mesure de se défendre contre les dommages qui pourraient survenir. « Faut-il laisser les machines inonder nos canaux d'information de propagande et de contre-vérité ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? », s'interrogent les signataires de la lettre.

© Jonathan Kemper / Unsplash
© Jonathan Kemper / Unsplash

Évaluer les risques des outils avant de les ouvrir au public

Afin de prévenir les nombreux risques posés par un déploiement trop rapide de systèmes d'IA avancés, les signataires sollicitent l'interruption du développement des IA plus puissantes que GPT-4 pendant six mois. Le but est d'évaluer au préalable si leurs effets seront positifs et leurs risques gérables. Selon eux, ces éléments doivent être prérequis pour tous les dispositifs d'intelligence artificielle lancés sur le marché. Ils appellent les législateurs à intervenir si la pause de six mois n'est pas mise en pratique.

« La recherche et le développement dans le domaine de l'IA devraient être recentrés sur l'amélioration de la précision, de la sécurité, de l'interprétabilité, de la transparence, de la robustesse, de l'alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d'aujourd'hui », préconisent les signataires. Cette recherche doit être « publique et vérifiable » et « inclure tous les acteurs clés ».

En amont, les développeurs sont exhortés à travailler conjointement avec les décideurs politiques. L'objectif est d'« accélérer considérablement le développement de systèmes robustes de gouvernance de l'IA ».

© Shutterstock

Elon Musk a signé, pas Sam Altman

Parmi les signataires, on retrouve sans surprise Elon Musk, qui a partagé à plusieurs reprises ses préoccupations quant à l'IA, mais également des chercheurs de DeepMind, la division spécialisée dans l'IA d'Alphabet. Yoshua Bengio et Stuart Russell, deux poids lourds du secteur, y figurent aussi.

Le PDG d'OpenAI, Sam Altman, n'a pas signé la lettre. Pourtant, il invitait récemment ses pairs à freiner sur le développement de l'intelligence artificielle. Il appellait en outre les législateurs à établir des lignes de conduite et une législation afin d'encadrer le développement exponentiel de ces outils.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10