Les géants de l'IA ont décidé de se rassembler dans un nouveau groupe qui devrait permettre d'améliorer la sécurité de cette technologie naissante.
Hasard ou conséquence du calendrier ? La semaine dernière, tous les grands noms de l'intelligence artificielle étaient réunis à Washington autour de Joe Biden pour discuter du développement, inquiétant pour certains, de la technologie. Depuis, les choses ont semble-t-il bougé, puisqu'un groupe de référence vient de voir le jour.
Les Avengers de l'IA
Seraient-ce les prémices de cette fameuse AIEA de l'intelligence artificielle qu'appelait à mettre en œuvre Sam Altman, le patron d'OpenAI ? Peut-être. Car cette semaine, une nouvelle organisation est née. Baptisée « Frontier AI Forum », elle rassemble quatre géants de la tech à la base de modèles d'IA d'avant-garde, ces derniers étant définis comme « des modèles d'apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés, et qui peuvent effectuer une grande variété de tâches ».
Le groupe est composé à ce jour de Microsoft (Bing AI), OpenAI (ChatGPT), Google (Bard) et Anthropic (Claude) et se dit ouvert à l'intégration de nouveaux membres. Ensemble, ils souhaitent :
- faire progresser la recherche pour la sécurité de l'IA ;
- « identifier les bonnes pratiques » pour un développement responsable de la technologie ;
- créer des liens efficaces avec les politiques, le monde universitaire, le monde économique et la société civile ;
- employer l'IA pour répondre aux défis majeurs du siècle comme le changement climatique.
Des initiatives déjà dans les tuyaux
Des objectifs extrêmement ambitieux et pleinement assumés par le quatuor de départ, composé de ce qui se fait de mieux dans l'IA américaine, Meta mis à part. Il faut dire que les partenaires veulent mettre rapidement en place un groupe consultatif qui émettra des recommandations quant aux normes de sécurité. Un groupe qui devrait par ailleurs servir de passerelle avec les autres secteurs de la société.
« Les entreprises qui créent des technologies d'IA ont la responsabilité de s'assurer qu'elles sont sûres et sécurisées et qu'elles restent sous contrôle humain. Cette initiative est une étape essentielle pour rassembler le secteur technologique afin de faire progresser l'IA de manière responsable et de relever les défis afin qu'elle profite à l'ensemble de l'humanité », a cherché à résumer le vice-président de Microsoft, Brad Smith. L'embryon d'une coalition appelée à devenir beaucoup plus large au fil des années ?
Source : Neowin