La France vient de se doter d'un Institut national dédié à la sécurité de l'IA (INESIA). À l'initiative du gouvernement, le dispositif vise à encadrer et sécuriser le développement de l'intelligence artificielle dans l'hexagone.

La France accélère sur la surveillance de l'IA © Microsoft Designer, pour Clubic
La France accélère sur la surveillance de l'IA © Microsoft Designer, pour Clubic

La ministre déléguée chargée de l'Intelligence artificielle et du Numérique, Clara Chappaz, vient d'annoncer ce vendredi la création d'un nouvel institut national qui espère positionner la France parmi les leaders mondiaux de l'IA. L'INESIA, on peut l'appeler ainsi, verra le jour dans le prolongement de la Déclaration de Séoul, signée en mai 2024 par onze pays majeurs. Cette structure assez inédite, présentée à quelques jours du grand sommet de l'IA qui se tiendra à Paris, rassemblera les plus grands acteurs français de l'évaluation et de la sécurité de l'intelligence artificielle.

Un institut pour fédérer les experts français de l'IA

Sans créer de nouvelle structure juridique, l'INESIA ambitionne de devenir un hub d'expertise unique en son genre. Sa mission principale ? Analyser les risques systémiques liés à l'IA dans le domaine de la sécurité nationale, tout en accompagnant la mise en place des futures régulations. Les chercheurs et ingénieurs mobilisés travailleront également sur l'évaluation des performances et de la fiabilité des modèles d'IA.

L'INESIA sera piloté conjointement par le secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des Entreprises (DGE). Cette gouvernance partagée est censée retranscrire l'ambition du projet, qui est de garantir la sécurité nationale, tout en accompagnant le développement économique. L'institut fédérera notamment l'ANSSI, l'Inria, le Laboratoire National de Métrologie et d'Essais et le PEReN.

Il devrait donner un peu plus d'épaisseur à la stratégie française de développement responsable de l'IA. L'État français considère en effet la confiance comme le socle fondamental de l'adoption de cette technologie. Un point particulièrement crucial pour certains secteurs sensibles comme la médecine, l'éducation ou l'industrie, où l'utilisation de l'IA doit être strictement encadrée.

Une ambition internationale pour l'intelligence artificielle française

L'INESIA ne fait pas cavalier seul. L'institut s'intègre dans un réseau international d'AI Safety Institutes, aux côtés d'organisations similaires au Canada, en Corée du Sud, aux États-Unis, au Japon, au Kenya et à Singapour. Cette collaboration internationale permettra de promouvoir une vision commune de l'IA. La France la souhaite sûre, inclusive et digne de confiance.

La création de l'INESIA deviendra-t-elle le témoin de l'ambition française de jouer un rôle majeur dans la gouvernance mondiale de l'IA ? En structurant sa recherche autour de l'évaluation et de la sécurité, la France se donne en tout cas les moyens, sur le papier du moins, de peser dans les débats internationaux. L'institut travaillera notamment en étroite collaboration avec l'AI Office de la Commission européenne.

La structure pourrait représenter une étape décisive dans la stratégie française en matière d'IA. C'est peut-être bien en conjuguant l'innovation et la sécurité, la recherche et la régulation que l'INESIA incarnera une approche équilibrée du développement de l'intelligence artificielle. Un positionnement qui pourrait faire école à l'international, alors que de nombreux pays cherchent encore leur voie dans l'encadrement de cette technologie.