X © Vitor Miranda / Shutterstock.com
X © Vitor Miranda / Shutterstock.com

Avec un accord historique, l'Union européenne pose enfin un cadre réglementaire digne de ce nom pour l'intelligence artificielle et les grands modèles, comme celui qui impulse ChatGPT par exemple. Clubic vous offre un résumé des principales règles.

C'est en grande pompe que l'Union européenne a salué et annoncé, samedi 9 décembre, l'accord politique sur la loi sur l'intelligence artificielle, baptisé « AI Act », devant à terme définir les règles pour une IA de confiance. La réglementation, dont nous allons faire le tour point par point, propose notamment une classification des systèmes en risque « minimal », « élevé » ou « inacceptable », et détaille le montant des sanctions qui pourront être particulièrement lourdes dans certaines circonstances. Mais attention, car si la Commission européenne a posé les bases avec l'approbation du Parlement et du Conseil, doit encore intervenir l'adoption définitive du texte.

Avoir une intelligence artificielle digne de confiance, telle est la volonté de l'Union européenne

Avec cet AI Act, l'Union européenne n'a qu'une obsession : encourager le développement, le déploiement et l'adoption d'une intelligence artificielle fiable dans tous les pays membres. « Notre loi sur l’IA apportera une contribution substantielle au développement de règles et de principes mondiaux pour une IA centrée sur l’humain », expliquait d'ailleurs samedi la présidente de la Commission européenne, Ursula von der Leyen.

Les futures règles, qui seront appliquées de manière uniforme dans tous les États membres, adoptent une approche basée sur les risques. Le premier échelon sera à ce titre celui du « risque minimal », qui regroupera la grande majorité des systèmes d'IA. Parmi les applications, on retrouve les filtres anti-spam et les systèmes de recommandation basés sur l'IA que l'on peut retrouver sur de nombreux sites. Ces IA-là bénéficieront de laissez-passer volontaires, car elles présentent un « risque minime, voire nul » pour les droits et la sécurité des citoyens de l'UE.

Le grade suivant placera les systèmes d'IA plus sensibles dans la catégorie des intelligences de « risque élevé ». Les infrastructures critiques seront considérées comme à haut risque et devront se conformer à de plus strictes exigences, comme une journalisation des activités, une surveillance humaine élevée et une cybersécurité de pointe. Les domaines et secteurs de l'eau, du gaz, de l'électricité, du contrôle des frontières, de l'administration de la justice, du processus démocratiques, et des systèmes biométriques d'identification et de reconnaissance des émotions, n'échapperont pas à ces règles fortes.

Drapeau de l'Union européenne © Pixabay
Drapeau de l'Union européenne © Pixabay

Les IA qui présentent un «  risque inacceptable » pour les citoyens européens seront bannies

Il existe un troisième échelon, celui du « risque inacceptable ». Ici, on touche aux systèmes d'IA qui menacent les droits fondamentaux, qui seront purement et simplement interdits. L'UE vise ici les IA qui manipulent le comportement humain (pour par exemple agir sur le libre arbitre des utilisateurs) comme les jouets qui font appel à l'assistance vocale et encouragent les comportements dangereux, mais aussi les systèmes qui permettent une notation sociale, que ce soit par des autorités, gouvernements ou entreprises. Certains usages des systèmes biométriques seront aussi interdits, ce sera le cas de la reconnaissance des émotions utilisées sur le lieu de travail.

Un peu plus à part, Bruxelles a validé un « risque spécifique de transparence ». Les utilisateurs devront être pleinement mis au courant, lorsqu'ils échangent sur un chatbot, qu'ils interagissent bien avec une machine. L'UE inclut aussi les contenus générés par l'IA dans cette catégorie, comme les deepfakes, qui devront être identifiés comme tels. Les contenus audio, vidéo, texte et images générés par l'intelligence artificielle devront plus globalement être marqués dans un format lisible et indiquer qu'ils ont été créés ou manipulés artificiellement.

Des amendes qui pourront être lourdes pour les applications d'IA qui se risquent à ne pas respecter la loi européenne

Les mesures plus strictes appliquées aux modèles de langage et aux IA plus sensibles feront l'objet de codes de bonnes pratiques qui seront rédigés de manière collégiale par l'industrie, la société civile et la communauté scientifique, sous la supervision de la Commission européenne puis des autorités nationales des pays membres. Un nouvel office européen de l'IA (l'AI Office) assurera d'ailleurs la bonne coordination de la réglementation.

Concernant le volet des sanctions, des amendes pouvant aller jusqu'à 35 millions d'euros pour de plus petites entreprises, ou 7 % du chiffre d'affaires annuel mondial de l'entreprise pour les plus grosses, seront prononcées à l'encontre des acteurs qui déploient des IA interdites et violent l'AI Act.

Une fois la loi européenne définitivement adoptée, Bruxelles explique que « les interdictions s'appliqueront déjà au bout de 6 mois, tandis que les règles sur l'IA à usage général s'appliqueront au bout de 12 mois ». En attendant, la période transitoire sera comblée par un « pacte pour l'IA », qui réunira des développeurs européens et mondiaux, pour mettre en oeuvre les obligations principales du texte avant les délais légaux.