La technologie deepfake peut facilement modifier l’apparence de plans. C’est ce qu’ont montré des chercheurs de l’université de Washington.
Ils alarment ainsi sur la possibilité d'utiliser cette technologie de manière malintentionnée dans le futur.
Des deepfake relativement simples à mettre en place
Le deepfake évoque souvent un vrai faux Donald Trump sur YouTube en plein discours ou le visage d'une star de cinéma transposé sur votre voisin de palier, mais la technologie va bien plus loin que ça. En se basant sur l’intelligence artificielle elle peut aussi être utilisée pour la modification d'images satellites.
Une équipe de chercheurs de Washington a montré qu’il suffit d’un peu d’huile de coude pour produire des résultats très difficilement identifiable comme faux, même pour un œil exercé. Pour ces tests, c'est la technologie de « réseaux antagonistes génératifs » – GAN pour les intimes - qui a été éprouvée, la même que celle permettant de créer de faux avatars.
Les GAN, comme leur nom l’indique, génèrent des images ou de la vidéo… Pour cela, deux réseaux entrent en jeu. On distribue au « générateur » et au « discriminateur » un catalogue similaire de photos, cohérentes entre elles (différentes photos de chats par exemple). Le générateur produit alors de nouvelles images à partir du catalogue, et le discriminateur va indiquer si les images produites ressemblent à celles du catalogue initial. Le premier va donc devoir tromper le second, c’est ce qui permet un apprentissage non supervisé, soit sans l’intervention de l’humain.
Au lieu de combiner différents visages entre eux, les membres de l'équipe de l’Université de Washington ont fusionné des vues satellites des villes de Seattle, Tacoma et Pékin. Cela a abouti à la création de paysages urbains extrêmement réalistes : il est très difficile pour l’œil humain de distinguer les très légers défauts que sont par exemple les ombres portées projetées par les bâtiments.
Un algorithme pour les géographes ?
Si les fausses cartes ont toujours existé – on pense à celles volontairement laissées à l’ennemi pendant la guerre par exemple - celles créées avec les deepfakes pourrait bien tromper même pour un œil avertit.
Si les deepfake peuvent amener à des prouesses telles que la recréation de cartes anciennes, la technologie peut aussi se révéler très problématiques en cas d’usage malveillant.
Les deepfakes géographiques pourraient par exemple signaler des incendies imaginaires, ou des mouvements de troupes inexistants. Autant de sueurs froides notamment pour les institutions concernées.
Pour Bo Zhao, professeur de géographie à l'Université de Washington et membre de l'étude, une solution pourrait être le développement d'un algorithme dédié pour permettre aux géographes de filtrer les bonnes images des « deepfakes géograhiques »…
Source : The Verge