© Markus Mainka / Shutterstock
© Markus Mainka / Shutterstock

Le géant Google se pare d'un nouvel outil révolutionnaire pour identifier les images virtuelles générées par l'intelligence artificielle.

Google DeepMind, filiale consacrée à l'intelligence artificielle de la firme au moteur de recherche, a annoncé il y a quelques jours le lancement de la version bêta de SynthID, en partenariat avec Google Cloud. On peut décrire cette innovation comme un outil révolutionnaire de filigrane et d'identification des images générées par l'IA. La technologie, pionnière en la matière, intègre un filigrane numérique directement dans les pixels des images, le rendant ainsi invisible à l'œil humain tout en restant détectable pour les systèmes d'identification.

SynthID, une réponse aux défis des images générées par l'IA, parmi lesquels les fake news

La popularité croissante des images générées par l'IA soulève un défi majeur en matière d'authenticité et d'identification. Il devient parfois difficile de démêler le vrai du faux, et Google œuvre déjà depuis plusieurs mois pour aider ses milliards d'utilisateurs à y voir plus clair. La technologie évoluant rapidement, ces contenus créés par l'IA deviennent presque indiscernables des créations et clichés humains, même si Nikon a récemment prouvé que le réel n'avait pas encore d'égal en taquinant le générateur Midjourney. Pour couronner le tout, cette avancée s'accompagne de nouveaux risques liés à la désinformation.

Ici, Google Cloud s'engage à maintenir la qualité des informations en ligne et à préserver la confiance entre les créateurs et les utilisateurs. Dans cette optique, SynthID offre une solution avancée pour identifier les images générées par l'IA, y compris leurs versions qui auraient été modifiées. Sur ce dernier point, la technique n'est pas encore au point, mais les premiers résultats sont prometteurs.

SynthID a été développé par Google DeepMind et perfectionné en collaboration avec Google Research. Il représente le premier outil de ce type, permettant à la fois de créer et d'identifier de manière responsable les images générées par l'IA, soutenant l'engagement de la division Google Cloud en faveur d'une intelligence artificielle plus responsable.

Le filigrane est détectable même après des modifications © Google
Le filigrane est détectable même après des modifications © Google

Pour le moment, l'outil SynthID se limite à un nombre limité d'utilisateurs de Vertex AI, une plateforme de machine learning (anciennement Google AI Platform). Celle-ci permet de développer des modèles spécifiques, et des IA génératives. En l'occurrence, les utilisateurs dont nous parlions doivent utiliser Imagen, un générateur d'images de Google qui fonctionne à partir d'une requête textuelle.

Un filigrane numérique pour distinguer les images, et une vision d'avenir ?

Le module SynthID peut donc repérer les filigranes invisibles insérés aux visuels générés par l'IA. Ces filigranes sont des motifs pouvant être superposés sur des images pour les identifier. On pourrait d'ailleurs les comparer aux empreintes physiques que l'on retrouve sur les photos imprimées. Les filigranes traditionnels pouvant être facilement supprimés, Google a ajouté à SynthID la possibilité d'apposer un filigrane numérique imperceptible aux images produites par Imagen, mais qui reste détectable. Le but ? Préserver la qualité de l'image tout en laissant la possibilité de la détecter, même en cas de modification, d'ajout de filtres, de changement de couleurs ou autres.

Et bien que SynthID ne soit pas infaillible contre toutes les manipulations d'images, il représente une avancée à fort potentiel. Google explique que la technologie pourrait être étendue à des médias autres que l'image, comme la vidéo, l'audio et le texte. Elle se muerait ainsi en une solution polyvalente de premier ordre pour identifier le contenu numérique.

SynthID marque le premier pas vers un paysage de contenus plus transparent, dans lequel les images générées par l'intelligence artificielle peuvent être vérifiées avec précision. En restant ouvert à l'évolution et à l'extension vers d'autres modèles d'IA, SynthID pourrait symboliser une avancée dans la lutte contre la création et la diffusion de fausses informations, et peut-être redonner confiance aux utilisateurs, qui en ont bien besoin.