Les autorités de plusieurs pays s'activent pour réglementer l'IA. © Peshkova/ Shutterstock
Les autorités de plusieurs pays s'activent pour réglementer l'IA. © Peshkova/ Shutterstock

Les États-Unis et le Royaume-Uni, alliés de longue date, ont annoncé un partenariat officiel sur la sécurité de l'intelligence artificielle (IA). Il s'agit du premier accord bilatéral au monde portant sur la technologie.

Depuis fin 2022, lorsque l'IA générative a pris le monde d'assaut avec le lancement de ChatGPT, les gouvernements de nombreux pays réfléchissent à réglementer la technologie tout en tirant profit de celle-ci. C'est l'objectif de la collaboration établie entre les États-Unis et le Royaume-Uni.

Ainsi, la secrétaire américaine au Commerce, Gina Raimondo, et la secrétaire britannique à la technologie, Michelle Donelan, ont signé un protocole d'accord à Washington D.C. pour travailler conjointement au développement d'essais de modèles d'IA avancés.

Échanges d'expertise

« Il s'agit du premier accord de ce type au monde. L'IA est déjà une force extraordinaire pour le bien de notre société, et elle a un vaste potentiel pour relever certains des plus grands défis du monde, mais seulement si nous sommes capables de maîtriser ces risques », a commenté Michelle Donelan. Le Royaume-Uni a pour ambition de devenir l'une des plaques tournantes de l'IA dans le monde. En février, le pays s'est engagé à investir plus de 100 millions de livres sterling pour lancer neuf nouveaux centres de recherche et former les régulateurs de l'IA à la technologie.

Dans le cadre du nouveau partenariat, l'Institut britannique de sécurité de l'IA (AISI), créé en novembre, et son équivalent américain, vont échanger leur expertise et travailler sur la manière d'évaluer de manière indépendante les modèles. OpenAI, Google DeepMind, Microsoft et Meta se sont déjà engagées auprès de l'Institut britannique pour ouvrir leurs derniers modèles d'IA générative à l'examen.

« Nous savons tous que l'IA est la technologie déterminante de notre génération. Ce partenariat permettra d'accélérer les travaux de nos deux instituts dans tous les domaines afin de répondre aux risques liés à nos préoccupations en matière de sécurité nationale et à celles de notre société dans son ensemble », a indiqué la secrétaire d'État américaine.

Le Royaume-Uni se voit en leader de l'IA. © Kristina G / Unsplash
Le Royaume-Uni se voit en leader de l'IA. © Kristina G / Unsplash

En contraste avec l'approche européenne

Les deux pays ont pour ambition de mitiger les risques de l'IA, notamment au regard des élections et de la cybersécurité. De plus en plus d'experts alertent sur l'utilisation de cette technologie pour la diffusion de désinformation. Pour l'heure, il n'est toutefois pas question de réglementer l'IA au Royaume-Uni, tant le secteur évolue rapidement.

Cette approche est en nette contradiction avec celle de l'Union européenne (UE). L'AI Act, qui devrait entrer en vigueur l'année prochaine, va poser un cadre strict aux entreprises qui développent des modèles d'IA, les forçant à respecter des règles selon les cas d'usage de leurs modèles.

Aux États-Unis, l'encadrement de l'IA reste également modéré. Si Joe Biden a signé un décret visant à réduire les risques qui y sont liés, les sociétés n'ont, pour l'heure, pas d'obligation législative de se plier à certaines mesures.