© Pixabay
© Pixabay

La création et l'édition d'images ne sont pas épargnées par l'IA, bien au contraire. Dans un souci de protection contre les deepfakes et les altérations d'images non autorisées, le MIT (Massachusetts Institute of Technology) s'attaque frontalement au problème en développant un outil de défense spécialisé.

Nous assistons en ce moment à une période de multiplication des systèmes d'IA générative, dont certaines spécialisées dans l'édition d'images comme DALL-E, Stable Diffusion, ou Midjourney. Leurs performances impressionnent déjà, et nous ne sommes qu'au préambule de ce bouleversement. Cependant, cette montée en puissance s'accompagne d'inquiétudes. Grâce à ces IA, il est désormais très facile de manipuler des images en les modifiant, ou de les voler. Pour contrer ces menaces, le MIT a développé PhotoGuard, un outil qui pourrait offrir une défense potentielle contre ces phénomènes.

PhotoGuard ou la protection des images par leur immunisation

Le fonctionnement de PhotoGuard est plutôt simple à comprendre. Le programme est en mesure d'altérer certains pixels d'une image pour perturber le fonctionnement de l'IA. Sa capacité à comprendre le contenu de l'image serait ainsi affectée et elle prendrait l'image pour une autre. Bien que ces perturbations soient complètement invisibles pour l'œil humain, une IA les détecte très facilement et son fonctionnement serait gravement atteint. Cette méthode de défense, baptisée « encoder » se sert en quelque sorte de la puissance des systèmes d'IA pour la retourner contre eux-mêmes. Plutôt intelligent.

PhotoGuard peut utiliser une méthode plus complexe, nommée « diffusion ». Celle-ci se rapproche plus d'une technique de camouflage, en cachant l'image cible derrière une autre. Ainsi, lorsque l'IA tente d'effectuer des modifications sur cette image, les résultats sont parfaitement irréalistes, rendant ainsi toute tentative d'utilisation frauduleuse vaine. L'image est en quelque sorte immunisée.

 © Pixabay
© Pixabay

L'importance de l'approche collaborative dans la lutte contre les manipulations d'images

Hadi Salman, doctorant au MIT, analyse ces deux types d'attaques pour le média Engadget. La technique « encoder » induit en fait en erreur le modèle algorithmique de l'IA en lui faisant croire que l'image à éditer est en réalité une autre image, par exemple en noir et blanc. Pour la technique « diffusion », elle oblige l'IA à cibler une image qui n'est pas la bonne. Il prévient toutefois que cette technique est loin d'être infaillible, et qu'il est possible de la contourner par un simple ajout de bruit numérique sur la photo. Le fait de retourner ou recadrer l'image pourrait aussi être un moyen de déjouer cette protection.

Salman souligne également que « la collaboration entre les développeurs d'IA, les plateformes de réseaux sociaux et les décideurs serait un moyen intelligent de développer une défense solide contre la modification non autorisée d'images. Le problème est de plus en plus impératif et s'y attaque dès aujourd'hui est une réaction essentielle.  » Il insiste également sur le fait que les entreprises responsables de ces modèles d'IA doivent à tout prix développer des mesures de protection et d'immunisation d'images.

Le développement de ces outils basés sur l'IA se fait à grande vitesse, ce qui est loin d'être le cas de ceux qui pourraient nous protéger d'une mauvaise utilisation de cette technologie. Même si l'initiative du MIT est à saluer, elle ne sera pas suffisante. Une approche globale et collaborative et nécessaire pour endiguer les menaces potentielles inhérentes aux usages malfaisants de l'IA. Il est urgent que les entreprises prennent leur responsabilité, et que le développement de l'intelligence artificielle ne se mue pas en jeu du chat et de la souris. Le chat étant les développeurs d'IA, et la souris, des personnes ou institutions avec de mauvaises intentions.

  • Droits commerciaux inclus dans tous les forfaits payants
  • Pertinence dans la compréhension des prompts
  • Tarifs accessibles
9 / 10