X.com autorise la publicité pour des IA permettant de dénuder des photos de femme sans leur consentement.
La situation financière de Twitter, devenu X, a toujours été connue comme étant compliquée, et ce, avant même sa reprise par Elon Musk. Mais depuis que le milliardaire s'est offert la plateforme, celle-ci n'a eu de cesse de voir ses revenus reculer, du fait notamment du départ d'un certain nombre d'annonceurs. Alors pour trouver de l'argent, la direction doit être créative. Jusqu'à s'ouvrir à des officines pas très recommandables.
Des IA pour mettre à nu des photos de femmes
« Qu'ils aillent se faire foutre ! » Voilà ce qu'avait dit Elon Musk aux annonceurs, qu'il accusait de vouloir le soumettre à travers un chantage financier. Alors, une fois les grandes entreprises éloignées, le réseau semble être obligé d'accepter les sollicitations de fournisseurs très immoraux.
C'est ce qu'a repéré 404media, avec l'arrivée sur la plateforme de fournisseurs de solutions IA capables… de « mettre à nu n'importe quelle fille. » La publicité que l'on peut trouver sur X montre ainsi l'image d'une jeune fille en sous-vêtement, suivie de la même image où la jeune fille est nue (mais dont les parties intimes sont floutées). De quoi provoquer un certain émoi.
Une modération peu présente
La publicité est d'autant plus dérangeante que la publicité montre la photo de la jeune fille mise à nu envoyée par message à cette dernière, qui demande paniquée à son interlocuteur s'il l'a hackée, puis lui enjoint de supprimer cette image. De quoi clairement indiquer au potentiel client qu'il n'aura pas besoin du consentement de la personne représentée sur les photos pour l'afficher nue.
Et les choses ne devraient pour le moment pas trop bouger. Un article produit par Vice à la fin de la semaine dernière montre en effet que, contrairement à des applications comme TikTok ou Instagram, la modération de la plateforme ne propose quasiment aucune action contre ce genre d'application. Une nouvelle polémique en vue ?
Source : 404media