Le Conseil de l'Europe a annoncé, mercredi, la création d'un outil permettant d'évaluer l'impact des systèmes d'intelligence artificielle sur les droits humains, la démocratie et l'État de droit.

Protection des citoyens européens face à l'intelligence artificielle

La course un peu effrénée à l'intelligence artificielle a poussé, ce mercredi 4 décembre, le Conseil de l'Europe à dévoilé une méthodologie inédite, baptisée « HUDERIA ». L'outil a pour objectif de protéger les droits fondamentaux des citoyens européens face aux avancées technologiques, en proposant une évaluation complète et dynamique des risques potentiels des systèmes d'IA. La démarche, portée par le comité de l'IA du Conseil, intervient à un moment où l'intelligence artificielle, omniprésente, peut remettre en question l'éthique et la protection des individus.

Le Conseil de l'Europe lance une méthodologie pour protéger les droits humains

HUDERIA peut être défini comme une approche structurée, compréhensive permettant d'analyser l'impact des intelligences artificielles. Plus concrètement, les acteurs publics et privés ont désormais un cadre précis pour identifier les risques potentiels tout au long du cycle de vie d'un système d'IA.

La méthodologie, adoptée lors d'une réunion à Strasbourg il y a quelques jours, intègre une vision systémique, reconnaissant l'interaction complexe entre les technologies et les structures sociales. Elle permettra d'évaluer non seulement les aspects techniques, mais aussi les implications sociétales plus larges.

Chaque système devra faire l'objet d'une analyse approfondie, prenant en compte ses potentiels effets discriminatoires ou ses risques pour les libertés individuelles. Par exemple, un algorithme de recrutement sera scruté pour détecter d'éventuels biais envers certains groupes démographiques.

Un dispositif de contrôle de l'IA dynamique et de protection continue

Le Conseil de l'Europe impose des réévaluations régulières pour garantir la compatibilité permanente des systèmes d'IA avec les droits humains. Cette approche permettra d'adapter continuellement les technologies aux évolutions sociétales et technologiques.

La méthode prévoit l'élaboration de plans de mitigation pour minimiser ou éliminer les risques identifiés. On y voit ici un mécanisme de gouvernance souple qui pourrait protéger avec une meilleure efficacité le grand public contre les dérives potentielles de l'intelligence artificielle.

Alors, quelle est la suite ? En 2025, le modèle HUDERIA sera complété par une bibliothèque de ressources et de recommandations, qui consolidera le dispositif éthique des intelligences artificielles. L'Union européenne, le Royaume-Uni et… les États-Unis ont d'ores et déjà signé la convention-cadre en ce sens.