Sam Altman © TechCrunch
Sam Altman © TechCrunch

Les dirigeants d'OpenAI viennent de publier une note dans laquelle ils appellent à la création de régulations internationales pour l'intelligence artificielle.

Ce genre d'appel n'est pas nouveau. On a ainsi pu voir Elon Musk cosigner avec nombre d'experts une pétition demandant la mise en pause du développement de l'IA, alors que des personnalités éminentes de la tech telles que Steve Wozniak se sont émues des potentiels dangers de la technologie. Sauf que cette fois, la déclaration émane directement des développeurs de ChatGPT !

Vers une agence internationale de l'IA ?

« Il faut réguler l'IA ! » Voilà, semble-t-il, le nouveau cri du cœur des autorités comme l'Union européenne ou la Chine, mais aussi des spécialistes du secteur. Cette tendance est une nouvelle fois illustrée par un appel lancé directement de chez OpenAI. En effet, une note signée par les fondateurs Sam Altman, Greg Brockman et Ilya Sutskever réclame de nouvelles régulations.

Ils appellent ainsi d'un côté les gouvernements à plus de coordination, proposant notamment la création d'un grand projet international, surveillé par les États et à l'intérieur duquel les grands acteurs de l'IA travailleraient. Ils estiment aussi que les décideurs politiques pourraient poser ensemble des limites à la croissance annuelle de l'IA, permettant aux régulateurs de suivre les progrès de l'objet à surveiller.

Par ailleurs, établissant un parallèle entre l'IA et l'énergie nucléaire pour sa capacité à changer totalement l'avenir humain et à la fois à représenter un danger existentiel, ils proposent l'établissement d'une agence internationale de l'IA sur le modèle de l'Agence internationale de l'énergie atomique (AIEA).

Il ne faut pas laisser l'IA sans contrôle © Mopic / Shutterstock
Il ne faut pas laisser l'IA sans contrôle © Mopic / Shutterstock

Des règles à plusieurs vitesses

Cette agence pourrait mener des inspections au sein des infrastructures de développement de l'intelligence artificielle, ordonner des audits, ou même imposer des restrictions sur le développement et les niveaux de sécurité. « Il serait important qu'une telle agence se concentre sur la réduction des risques existentiels, et non sur des questions qui devraient être laissées à l'appréciation de chaque pays, comme la définition de ce qu'une IA devrait être autorisée à dire », est-il tout de même ajouté.

Autre bémol de cet appel, les chefs d'OpenAI estiment que les régulations dont ils parlent devraient s'appliquer aux grandes entreprises déjà installées sur le marché et proposant des produits avancés. Ils demandent en revanche plus de liberté réglementaire pour les acteurs émergents : « Nous pensons qu'il est important de permettre aux entreprises et aux projets open source de développer des modèles en dessous d'un seuil de capacité significatif, sans le type de réglementation que nous décrivons ici. » Un équilibre plus facile à dire qu'à atteindre ?