© Shutterstock
© Shutterstock

Margrethe Vestager, Vice-présidente exécutive pour une Europe adaptée à l'ère du numérique, et Thierry Breton, commissaire chargé du marché intérieur, ont présenté un plan de réglementation de l'IA en Europe.

La Commission européenne a proposé « de nouvelles règles et actions en faveur de l'excellence et de la confiance dans l'intelligence artificielle ». Ces travaux doivent constituer la base d'un premier cadre juridique sur l'IA au sein de l'UE et d'un nouveau plan coordonné avec les États membres sur la question de l'intelligence artificielle.

Certaines IA interdites

La Commission européenne a établi ce règlement par une approche fondée sur les risques. La première catégorie concerne les risques jugés inacceptables. « Les systèmes d'IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits », apprend-on.

Sont visés les systèmes qui permettent la notation sociale par les États ainsi que les IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre. Est cité l'exemple d'un jouet ayant recours à l'assistance vocale pour inciter les enfants à effectuer des actions dangereuses.

Sont ensuite définis les risques élevés, dont les produits et services concernés devront respecter des obligations strictes pour espérer pouvoir être mis sur le marché. Parmi ces contraintes à respecter, on retrouve :

  • La qualité élevée des ensembles de données exploités « afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire » ;
  • l'enregistrement des activités « afin de garantir la traçabilité des résultats » ;
  • une documentation détaillée « pour permettre aux autorités d'évaluer sa conformité » ;
  • des systèmes adéquats d'évaluation et d'atténuation des risques ;
  • des informations claires et adéquates à l'intention de l'utilisateur ;
  • un contrôle humain approprié ;
  • un niveau élevé de robustesse, de sécurité et d'exactitude.

Des IA à haut risque surveillées de près

Les systèmes d'IA à haut risque comprennent notamment les outils d'identification biométrique à distance. La Commission européenne a également porté son attention sur les technologies d'IA utilisées dans les infrastructures critiques et qui peuvent être susceptibles de mettre en danger la vie et la santé des citoyens (dans les transports par exemple).

Les technologies d'IA « qui peuvent déterminer l'accès à l'éducation et le parcours professionnel d'une personne », « utilisées dans les composants de sécurité des produits », « utilisées dans le domaine de l'emploi, de la gestion de la main d'œuvre et de l'accès à l'emploi indépendant », « utilisées dans les services privés et publics essentiels », « utilisées dans le domaine du maintien de l'ordre », « utilisées dans le domaine de la gestion de la migration, de l'asile et des contrôles aux frontières » et « utilisées dans les domaines de l'administration de la justice et des processus démocratiques » seront aussi étroitement surveillées.

Le but de ces règles est de créer les conditions propices au développement de l'IA et faire de l'Europe « le pôle mondial d‘une intelligence artificielle digne de confiance ». Le Parlement européen et les États membres vont devoir débattre et adopter les propositions de la Commission avant que le règlement n'entre officiellement en vigueur.