La législation européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi. L'idée est d'absorber les risques liés à l'IA, tout en positionnant l'Europe au premier plan à l'échelle mondiale.
Les porteurs de la loi européenne sur l'intelligence artificielle ont pu sabrer le champagne ce jeudi 1er août 2024. Le texte, qui fixe le premier cadre juridique en la matière, vient poser des exigences et obligations concernant l'utilisation spécifique de l'IA. Le leitmotiv de l'Union européenne : que l'IA développée et utilisée dans la zone « soit digne de confiance », et qu'elle protège les droits fondamentaux des citoyens. Le cadre réglementaire vient fixer quatre niveaux de risque pour les systèmes d'IA.
L'UE interdira automatiquement tout système d'IA jugé dangereux
Si vous avez manqué notre précédent sujet sur la législation européenne sur l'intelligence artificielle, l'AI Act, son principal atout est d'adopter une approche basée sur les risques, au travers de quatre niveaux.
Plus haut grade de dangerosité, les pratiques d'intelligence artificielle qui présente des « risques inacceptables » : ces systèmes seront purement et simplement interdits dans l'Union européenne. Il s'agit de tous les systèmes considérés comme une menace pour la sécurité, les droits des personnes ou les moyens de subsistance.
Ceux qui présentent un « risque élevé » ne seront pas bannis du sol européen mais seront soumis à des obligations strictes avant leur mise sur le marché. Cela touche notamment les IA de domaines comme l'éducation, l'emploi, les infrastructures critiques (transports), la sécurité des produits, le contrôle aux frontières ou la justice. Les systèmes d'identification biométrique à distance seront scrutés de près par les autorités européennes et les entités nationales chargées de surveiller les activités dans le domaine de l'IA.
Les médias devront bien faire attention à étiqueter tout contenu généré par l'intelligence artificielle
Les deux autres catégories d'IA ont moins d'obstacles à franchir. Celles à « risque limité », comme les chatbots de type ChatGPT ou Claude, seront frappées d'obligations de transparence pour informer les utilisateurs de leur interaction avec l'intelligence artificielle. Les fournisseurs de contenus, comme les médias, devront s'assurer que le contenu généré par l'IA est bien identifiable, à l'aide d'étiquettes.
En ce qui concerne les systèmes d'IA qui présentent un « risque minime ou nul », leur utilisation sera libre pour la majorité d'entre eux. Les filtres anti-spam et jeux vidéo ne devraient pas être trop embêtés. Il faut d'ailleurs savoir que la plupart des IA aujourd'hui utilisées dans l'Union européenne figurent dans cette catégorie.
La mise en place de cet AI Act suit en tout cas un calendrier bien précis. À partir du 1er février prochain, l'UE veillera à ce que tous les systèmes d'IA interdits aient été écartés. Un peu plus tard, le 1er mai 2025, les codes de bonnes pratiques devront être prêts chez les fournisseurs de modèles d'IA à usage général. Dans tout juste un an, chaque État devra avoir créé ou désigné une autorité référente de surveillance, tandis que l'année suivante, le 1er août 2026, les États membres devront, par l'intermédiaire de leur autorité compétente, avoir mis en place un bac à sable réglementaire de l'IA.
13 décembre 2024 à 20h41