L'IA Act va enfin être encadré à l'échelle européenne pour protéger les utilisateurs des dérives de cette technologie © bump23 / Shutterstock
L'IA Act va enfin être encadré à l'échelle européenne pour protéger les utilisateurs des dérives de cette technologie © bump23 / Shutterstock

L'Union européenne vient d'adopter définitivement l'IA Act, première législation mondiale visant à encadrer le développement de l'intelligence artificielle. Un cadre juridique inédit, audacieux, mais aussi très attendu, pour à la fois stimuler l'innovation IA et protéger les droits fondamentaux des utilisateurs.

C'est une première mondiale que vient d'accomplir l'Union européenne. À l'issue de plus de deux ans de négociations intenses, les institutions européennes ont définitivement adopté l'IA Act après l'avoir annoncé en décembre 2023. Cette législation pionnière vise ainsi à réguler le développement et l'utilisation de l'intelligence artificielle.

Hasard du calendrier, Emmanuel Macron a ouvert ce 21 mai 2024 deux jours dédiés à l'intelligence artificielle, en souhaitant que la France en soit une place forte. Le Conseil européen semble avoir trouvé l'équilibre délicat entre encourager l'innovation technologique et garantir le respect des valeurs et des droits fondamentaux. De leur côté, les États-Unis visent le même objectif avec leur US AI Safety Institute Consortium (AISIC).

En classant les systèmes d'IA par niveau de risque, avec des règles proportionnées, l'Europe entend à la fois stimuler l'essor d'une IA « digne de confiance » sur son marché unique et protéger ses citoyens contre les potentiels abus et dérives.

Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2024
A découvrir
Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2024

10 novembre 2024 à 19h08

Comparatifs services

Les niveaux de risque, un cadre juridique précurseur né d'un processus législatif marathonien

Proposé dès avril 2021 par la Commission européenne, l'IA Act était très attendu pour combler un vide juridique face à la multiplication des systèmes d'IA, prometteurs, mais aussi suscitant de vives inquiétudes. Après 18 mois de navette législative entre les institutions européennes, un accord politique a finalement été trouvé en décembre 2022 sur ce texte fondateur d'un écosystème de confiance pour l'IA en Europe.

Suivant une approche inédite qui repose sur les risques, l'IA Act établit un cadre graduant les obligations en fonction du niveau de menace pour la sécurité et les droits fondamentaux. Les systèmes à risque inacceptable, comme la surveillance biométrique de masse ou la notation sociale, sont ainsi simplement interdits. Des règles strictes d'homologation et de contrôle humain encadrent ensuite les usages dits à haut risque dans des domaines aussi sensibles que les ressources humaines, l'éducation, les infrastructures critiques, l'application de la loi, etc. Des obligations de transparence et de surveillance des dérives s'appliquent aux IA à risques moindres. Enfin, une catégorie de risques minimaux reste quasi exempte de contraintes.

Pour garantir l'effectivité du dispositif, l'IA Act met aussi en place une nouvelle gouvernance européenne de l'IA : un bureau de contrôle au sein de la Commission, un conseil d'experts scientifiques indépendants, un comité opérationnel des États membres ainsi que des mécanismes d'implication des parties prenantes et de la société civile.

Les développeurs et utilisateurs de ces IA à haut risque auront de lourdes contraintes à respecter © PeopleImages.com - Yuri A / Shutterstock

De lourdes obligations pour les IA dites à haut risque pour protéger les utilisateurs, mais aussi des garde-fous pour garantir l'innovation

Au cœur de l'IA Act, c'est la catégorie des systèmes d'IA à haut risque qui concentre l'essentiel des nouvelles obligations. Utilisation de l'IA dans le recrutement, l'éducation, les services publics essentiels, la police et la justice, la contraction de crédits, les infrastructures critiques : toute une série de cas d'usage très répandus devra désormais respecter des exigences drastiques. Transparence et traçabilité du développement, contrôle humain effectif, monitoring régulier des biais et des dérives, tests rigoureux, certification par un tiers… Les développeurs et utilisateurs de ces IA à haut risque auront de lourdes contraintes à respecter pour pouvoir accéder au marché européen.

Il s'agit de mesures fortes pour protéger les utilisateurs d'éventuels dérapages que ces outils permettent hélas déjà, comme les applications de type « Nudify » qui déshabillent les femmes par le biais de l'IA, ou encore les deepfakes diffusant de fausses informations.

Dans le même temps, l'IA Act introduit aussi des garde-fous pour permettre l'essor d'une innovation IA responsable et digne de confiance. Les « bacs à sable réglementaires » offriront ainsi un cadre sécurisé pour tester et développer des solutions d'IA avant qu'elles soient pleinement déployées. Un suivi régulier est également prévu pour ajuster les listes des systèmes interdits ou à haut risque, en fonction des évolutions techniques.

Enfin, un régime spécifique et allégé est prévu pour les très populaires IA généralistes de type chatbot ou moteur d'IA. S'ils ne présentent pas de risque majeur, ces modèles auront quelques obligations de transparence. Mais en cas de risques avérés pour la société, des règles plus strictes pourront leur être imposées. La nouvelle ère de l'IA est-elle enfin arrivée ?

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
Mistral.AI
  • Peut tourner en local selon votre configuration
  • Open-source
  • API peu coûteuse
Google Gemini (Bard)
  • Un modèle de génération puissant
  • Une base de connaissances actualisée en temps réel
  • Gratuit et intégré à l'écosystème Google