À son tour, OpenAI annonce une mesure pour permettre aux plateformes et internautes de mieux identifier les visuels générés par l'intelligence artificielle (IA). Un enjeu primordial, alors que des élections majeures seront organisées dans plusieurs pays en 2024.
Les générateurs d'images produisent des visuels de plus en plus réalistes, faisant craindre une forte hausse de la propagation de fausses informations. Joe Biden pointait du doigt l'importance d'identifier les contenus générés par l'IA dans un décret portant sur la technologie en octobre dernier. Face à ce défi, plusieurs acteurs majeurs comme Adobe, Microsoft et plus récemment Meta appellent à l'adoption de la norme C2PA. Cette dernière permet aux éditeurs d'intégrer des métadonnées dans les médias afin de vérifier leur origine et les informations qui s'y rapportent.
La norme C2PA appliquée aux images générées par Dall-E 3.
OpenAI a décidé de l'adopter dans son IA Dall-E 3. Dès le 12 février prochain, les filigranes C2PA apparaîtront dans les images générées via ChatGPT ainsi que dans l'API du générateur d'œuvres d'art. Ils comprendront à la fois des métadonnées invisibles et un symbole CR, qui s'affichera dans le coin supérieur gauche de chaque image.
L'ajout du filigrane aura un « effet négligeable sur la latence et n'affectera pas la qualité de la génération d'images », assure la start-up. Grâce à ce standard, les grandes plateformes en ligne seront en mesure d'identifier les fichiers générés par l'IA, afin de l'indiquer aux utilisateurs.
Malheureusement, cette technologie présente encore des limites, les filigranes pouvant être effacés assez simplement, par une simple capture d'écran par exemple. « Nous pensons que l'adoption de ces méthodes d'établissement de la provenance et l'encouragement des utilisateurs à reconnaître ces signaux sont essentiels pour accroître la fiabilité de l'information numérique », indique tout de même OpenAI.
Un défi majeur
L'initiative d'OpenAI intervient après une annonce similaire de la part de Meta. Le réseau social a en outre indiqué que des mentions seraient ajoutées aux images générées par l'IA sur l'ensemble de ses réseaux sociaux.
De nombreux défis subsistent pour empêcher l'exploitation malveillante de ce type de contenu, la tâche s'avérant bien plus complexe lorsqu'il s'agit de fichiers audio ou vidéo. Des deepfakes audio sont d'ores et déjà utilisés aux États-Unis pour influencer les électeurs des primaires démocrates.
En collaborant, les acteurs majeurs du secteur espèrent aborder le problème plus efficacement. Plusieurs pays dont l'Inde, l'Indonésie et les États-Unis se rendront aux urnes cette année.