Les "Nudify" envahissent le Web © M-Production / Shutterstock
Les "Nudify" envahissent le Web © M-Production / Shutterstock

Les applications d'intelligence artificielle permettant de « déshabiller » numériquement les femmes sans leur consentement, également appelées « Nudify », connaissent une popularité loin de faire l'unanimité. Au-delà des dérives éthiques et juridiques évidentes, ce phénomène soulève de nombreuses interrogations sur la protection des données personnelles et du droit à l'image.

Alimentées par les progrès fulgurants de l'intelligence artificielle générative, les applications Nudify se multiplient sur Internet. Leur fonctionnement est simple, mais pose d'importants problèmes éthiques. En effet, il suffit d'uploader la photo d'une personne pour que l'algorithme génère une version où celle-ci apparaît dénudée, et ce, sans son accord.

Selon la société d'analyse Graphika, qui a publié une étude en décembre 2023, pas moins de 24 millions de personnes ont visité des sites proposant ce type de service rien qu'en septembre 2023. Une industrie florissante s'est ainsi développée autour de cette pratique de pornographie non consensuelle, soulevant de vives inquiétudes quant au respect de la vie privée et des droits individuels.

Les plateformes et réseaux sociaux impuissants ou inactifs face au développement inquiétant des Nudify

Pour faire simple, la technique du Nudify utilise deux technologies principales pour générer des images de la personne nue à partir de photos d'elle habillée. La première est l'IA générative, avec des algorithmes qui analysent des millions d'images de corps nus pour apprendre à identifier les formes et les textures réalistes, et la seconde est les deepfakes, lorsque l'IA superpose des corps nus anonymes sur la photo habillée de la cible, en tenant compte de la carnation, de la posture et d'autres détails pour un résultat crédible. L'utilisateur fournit une photo et choisit des options comme le type de corps et le style (réaliste ou anime). L'IA génère ensuite l'image nue en quelques minutes.

Si certaines plateformes comme TikTok ou Meta (Facebook, Instagram) commencent à bloquer les mots-clés associés aux applications Nudify, leurs efforts restent largement insuffisants face à l'ampleur du phénomène. En effet, ces services utilisent habilement les réseaux sociaux pour leur marketing, et le nombre de liens les annonçant a bondi de plus de 2 400 % cette année, selon Graphika. Pire, certaines applis parviennent même à se faire de la publicité sur YouTube en contournant les règles des diffuseurs.

Les géants de la tech, pourtant mieux armés que quiconque pour lutter contre ces dérives, semblent impuissants, ou en tout cas peu réactifs. Si Google affirme « examiner » et « supprimer » les publicités qui les deepfakes en tout genre, la firme ne fait bien souvent que les déclasser. Beaucoup d'autres plateformes n'ont pas encore pris de mesures concrètes. Ce constat est d'autant plus alarmant que ces mêmes entreprises ont les moyens techniques et financiers de mettre en place des garde-fous efficaces en ce qui concerne la modération des contenus et la protection des utilisateurs, lorsqu'on sait que ces images où l'on voit des personnes déshabillées sont souvent à l'origine de sextorsion ou de cyberharcèlement.

Pour la création de Nudify, le consentement des victimes est bafoué © DANIEL CONSTANTE / Shutterstock

Le consentement au centre des crispations autour des applications de type Nudify

Au-delà des interrogations sur la responsabilité des plateformes, c'est surtout la notion même de consentement qui est bafouée par ces applis. En effet, les images générées représentent des personnes dénudées à leur insu et sans leur accord. C'est là une atteinte majeure à leur droit à l'image et à leur dignité, et cela peut avoir un impact psychologique dévastateur, comme en témoignent de nombreuses victimes.

La lutte s'annonce d'autant plus complexe que le cadre juridique actuel peine à suivre la cadence des innovations technologiques. Aux États-Unis par exemple, aucune loi fédérale n'interdit formellement la création de ces deepfakes pornographiques. En France, la CNIL joue son rôle de garde-fou en punissant d'une amende de 12 000 euros la diffusion publique d'images « déshabillées », selon l'article 32 de la loi du 29 juillet 1881. Le RGPD, quant à lui, est intraitable sur le consentement, comme le dispose son article 6 : « Le traitement [des données personnelles] doit être licite : il doit être fondé sur l'une des 6 bases légales fixées par le RGPD notamment le consentement de la personne concernée […]»

Malgré tout, les victimes demeurent bien démunies face à ces dérives, la plupart du temps confrontées à des forces de l'ordre peu réactives et à des procédures coûteuses.

DALL·E
  • Ergonomique et intuitif
  • Comprend le langage naturel
  • Comprend le français
Adobe Firefly
  • Création d'image rapidement à partir d'une description.
  • L'outil de recoloration pour les images vectorielles.
  • L'offre gratuite avec 25 crédits mensuels.
Midjourney
  • Droits commerciaux inclus dans tous les forfaits payants
  • Pertinence dans la compréhension des prompts
  • Tarifs accessibles

Sources : Time, Graphika