À l'issue du Sommet pour l'action sur l'intelligence artificielle, l'ANSSI, l'agence française de cybersécurité, a tenu à alerter sur les risques de cyberattaques contre l'IA. Elle préfère temporiser.

Oui, les systèmes d'IA sont sous la menace des cybercriminels © Microsoft Designer, pour Clubic
Oui, les systèmes d'IA sont sous la menace des cybercriminels © Microsoft Designer, pour Clubic

L'intelligence artificielle révolutionne peut-être nos systèmes d'information, mais il est indéniable qu'elle apporte aussi son lot de vulnérabilités. L'Agence nationale de la sécurité des systèmes d'information (ANSSI), qui a suivi de près le Sommet qui s'est déroulé lundi et mardi à Paris, vient de présenter ce mercredi 12 février ses conclusions sur les enjeux et les risques de cybersécurité liés aux systèmes IA. Et vous allez voir qu'ils sont nombreux et complexes.

Comment les hackers peuvent empoisonner un système d'intelligence artificielle

Contrairement aux idées reçues, les systèmes d'IA restent avant tout des logiciels classiques, et ils sont à ce titre exposés aux mêmes risques que n'importe quel autre système informatique. Les cyberattaques traditionnelles, comme le détournement de comptes utilisateurs ou l'exploitation de failles logicielles, demeurent aujourd'hui les menaces les plus probables selon l'ANSSI.

Mais l'agence insiste surtout sur trois nouveaux vecteurs d'attaque spécifiques à l'IA. Le premier, l'empoisonnement, consiste à altérer les données d'entraînement ou le modèle d'IA. Un exemple concret ? Dans un entrepôt sécurisé, un attaquant pourrait modifier la capacité de détection du système de vidéosurveillance pour qu'il considère comme « non suspect » un individu portant une tenue d'une certaine couleur, ce qui désactiverait le système d'alarme. On vous laisse imaginer la suite.

L'extraction et l'évasion complètent ce trio de menaces émergentes. L'extraction permet à un attaquant de récupérer des données confidentielles après la phase d'apprentissage, comme des secrets industriels dans le secteur pharmaceutique. L'évasion, elle, modifie les données d'entrée pour tromper l'analyse du système : un fraudeur pourrait ici modifier les paramètres d'un virement bancaire pour qu'il échappe à la détection des transactions suspectes.

L'ANSSI renforce la coopération internationale sur la cybersécurité de l'IA

Pour sensibiliser et apporter une réponse à ces différents risques, l'ANSSI a orchestré plusieurs initiatives majeures lors du Sommet. Un document de référence sur l'approche des risques cyber, co-signé par 19 partenaires internationaux et 5 institutions françaises, propose notamment des recommandations stratégiques pour mieux sécuriser le développement des systèmes d'IA.

L'agence a également organisé un exercice de crise cyber d'envergure, en réunissant 250 experts en cybersécurité et en IA. La simulation, qui était centrée sur une attaque ciblant un système d'IA et sa chaîne d'approvisionnement, a permis aux participants d'échanger leurs bonnes pratiques et d'améliorer leur compréhension mutuelle des enjeux.

En parallèle du Sommet, l'ANSSI a organisé une rencontre stratégique avec les directeurs d'agences cyber partenaires pour faire le point sur les initiatives en cours. Vincent Strubel, le directeur de l'agence française, a souligné l'importance de cette collaboration internationale. Selon lui, seul un dialogue renforcé entre experts de l'IA et de la cybersécurité permettra de développer des systèmes d'IA de confiance, loin des discours alarmistes ou trop optimistes.