Des chercheurs affirment pouvoir tromper simplement la détection des deepfakes

Benoît Théry
Publié le 09 mars 2020 à 11h15
Iron Man Deep Fake Cruise
Le deepfake qui a remplacé Robert Downey Jr par Tom Cruise dans le rôle d'Iron Man © Collider Video

Une équipe de chercheurs de l'université de San Diego dit être parvenue à tromper, de manière relativement simple, les systèmes de détection des deepfakes, ces vidéos « truquées » par une intelligence artificielle.

Le projet sonne comme un avertissement alors que ce type de contenus s'est considérablement développé ces dernières années.


Perturbations vidéo

Les résultats ont été publiés sur le site de l'université de Cornell. L'équipe parle de « deepfakes perturbatoires », qu'elle définit comme des vidéos « intentionnellement perturbées pour tromper un modèle de classification ». La publication précise : « Dans ce projet, nous démontrons qu'il est possible de contourner (les) détecteurs en modifiant de fausses vidéos utilisant des méthodes déjà existantes de création de deepfakes ». Elle ajoute : « Nous démontrons en outre que nos perturbations sont robustes aux codecs de compression d'image et de vidéo, ce qui en fait une menace réelle ».

Les universitaires ont utilisé des vidéos de deepfakes et leur ont ajouté des « perturbations » (comme du bruit gaussien), si l'on en croit l'infographie issue de l'étude ci-dessous. Si cet ajout doit être réalisé selon une certaine méthode de calcul, une fois celui-ci terminé, l'image semble identique pour un être humain, mais pas pour les logiciels de détection, qui estiment désormais que la vidéo est authentique.

Deepfake San Diego
© UC San Diego


Soulever le problème

Les chercheurs précisent que leur méthode a réussi à tromper deux logiciels de détection baptisés XceptionNet et MesoNet, tous deux basés sur le modèle « CNN » (Convolutional Neural Networks). Ils déclarent : « Ces détecteurs [...] fonctionnent par image et classent chaque image indépendamment en tant que réel ou fausse ». Bien que simple, le procédé a permis de tromper des intelligences artificielles dont le fonctionnement était connu publiquement (IA de type white-box), et d'autres dont le fonctionnement était inconnu (type black-box).

Les résultats de l'étude sont fournis en exemples. L'infographie ci-dessus a montré le résultat obtenu sur une interview de l'ancien Président américain Barack Obama. Ci-dessous, les chercheurs fournissent les résultats obtenus pour d'autres images, choisies aléatoirement. Les auteurs précisent qu'à chaque fois, la colonne de gauche montre le deepfake d'origine, qui a été reconnu comme tel par le logiciel de détection. Les autres colonnes montrent des images qui, a priori, semblent identiques, mais auxquelles des perturbations ont été ajoutées et ont été reconnues comme « authentiques » par les logiciels.

Deepfake San Diego
© UC San Diego

Pour ses auteurs, l'étude prouve que la méthode actuellement utilisée pour la détection de deepfakes doit encore être améliorée. Les scientifiques ont déclaré : « Nous voulons soulever explicitement ce problème qui a été ignoré par les travaux existants sur la détection de deepfakes [...]. Étant donné que la génération de fausses vidéos peut potentiellement être utilisée à des fins malveillantes, il est essentiel de remédier à la vulnérabilité des détecteurs de deepfakes aux entrées perturbatoires ».

Source : Medium
Benoît Théry
Par Benoît Théry

Je veux tout savoir, et même le reste. Je me passionne pour le digital painting, la 3D, la plongée, l'artisanat, les fêtes médiévales... Du coup, j'ai toujours des apprentissages sur le feu. Actuellement, j'apprends à sourire sur mes photos de profil.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (3)
cirdan

Le jeu du chat et de la souris version numérique. L’intérêt est surtout de savoir combien de temps la souris va garder son avance :mouse:

ABC

C’est un truc vieux comme l’image numérique, jouer avec les flous gaussiens et le bruit, entre autres, pour apporter de l’imperfection et de l’homogénéité à une image. Ça estompe les différences de rendu au sein d’une image ayant plusieurs sources. Bien fait, si le photomontage de base n’est pas trop dégueulasse, on y voit que du feu.

Mais bon, comme dit plus haut, au jeu du chat et de la souris, il y en aura toujours un pour dépasser l’autre. L’idéal serait de former et d’éduquer les utilisateurs à l’esprit critique et d’analyse (plutôt que de voir des fakes news un peu partout). Mais quand on lit nos contemporains sur les réseaux, on se dit que c’est pas gagné.

St_uf

Comme le fait remarquer ABC, d’ajouter du grain sur une image pour cacher la misère ça n’a rien de magique comparé au deepfake en lui même. C’est comme les vidéos complotistes avec des résolutions super low.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles