Un consortium d'entreprises américaines va promouvoir le développement sécurisé de l'IA.  © bump23 / Shutterstock
Un consortium d'entreprises américaines va promouvoir le développement sécurisé de l'IA. © bump23 / Shutterstock

Une intelligence artificielle (IA) sécurisée et innovante. Voilà l'objectif de l'US AI Safety Institute Consortium (AISIC), qui vise à promouvoir le développement et le déploiement de la technologie de manière saine, en mitigeant ses risques.

Si l'Union européenne avance dans la mise en œuvre de sa législation sur l'intelligence artificielle, l'encadrement de l'IA s'annonce plus corsé outre-Atlantique. Les efforts du Congrès pour adopter une réglementation sont restés au point mort ces derniers mois malgré de nombreuses propositions, rencontres et forums de pointe. Le département du Commerce vient toutefois d'annoncer la création d'un consortium visant à prévenir les risques de la technologie. Il regroupe plus de 200 entreprises ; Google, Meta, Apple ou encore Microsoft viennent de le rejoindre.

Appliqué le décret présidentiel

« Le gouvernement américain a un rôle important à jouer dans la définition des normes et le développement des outils dont nous avons besoin pour atténuer les risques et exploiter l'immense potentiel de l'intelligence artificielle », a déclaré Gina Raimondo, secrétaire d'État au Commerce.

Le consortium, le plus grand ensemble d'équipes d'essai et d'évaluation au monde selon l'administration Biden, aura pour mission d'appliquer le décret présidentiel signé au mois d'octobre pour encadrer l'usage de l'IA. Dans ce sens, il aura pour mission d'élaborer des lignes directrices concernant « l'évaluation des capacités, la gestion des risques, la sûreté et la sécurité, ainsi que les filigranes » sur les contenus générés par l'IA.

Ce dernier point a été abordé ces derniers jours par les géants de l'industrie. Meta, OpenAI mais également Google ont chacun annoncé l'intégration du standard C2PA dans les images générées par leurs modèles. Ce dernier permet aux éditeurs d'intégrer des métadonnées dans les médias afin de vérifier leur origine. De même, le vaste test récemment mené par OpenAI pour déterminer si GPT-4 pouvait contribuer à la fabrication d'armes biologiques s'inscrit dans la démarche du consortium.

Joe Biden a appelé les entreprises à développer une IA sécurisée© vasilis asvestas / Shutterstock.com
Joe Biden a appelé les entreprises à développer une IA sécurisée© vasilis asvestas / Shutterstock.com

Pas de loi à proprement parler

Les entreprises vont également devoir mettre en place des systèmes de « red-teaming » pour évaluer les risques des modèles. Cette technique, datant de la guerre froide, consiste à pousser l'IA à mal agir ou à donner des informations compromettantes. En parvenant à faire faillir le système, les équipes sont davantage en mesure de déployer les meilleures protections possibles. OpenAI a employé cette méthode avec GPT-4.

À noter que si le consortium va travailler pour prévenir une utilisation malveillante de l'IA, la technologie n'est, pour le moment, soumise à aucune obligation législative aux États-Unis. En Europe, l'AI Act forcera les fournisseurs à mettre en place de nombreuses mesures afin de réglementer son usage.

Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2024
L'émergence de l'intelligence artificielle comme outil grand public a ouvert de nombreuses possibilités pour tous les producteurs de contenus. Texte, image, son… Cette nouvelle technologie à la mode peut maintenant apporter son assistance dans de très nombreux domaines, et faciliter le travail dans les étapes les plus ingrates de la création. Et avec une offre qui ne cesse de s'accroître, il est important de distinguer quels outils apportent une véritable valeur ajoutée. Histoire de ne pas perdre des heures à essayer tout ce que proposent les pages de résultats de Google !

Source : Reuters