Les deepfakes mettant en scène la chanteuse dans des positions suggestives auront au moins le mérite de bousculer le secteur. À l'instar de Microsoft, qui vient de renforcer ses garde-fous dans Designer.
Les programmes de génération d'images sont devenus tellement accessibles et performants qu'ils posent quelques problèmes alarmants. Il est désormais possible de mettre n'importe qui dans n'importe quelle posture, et les stars sont particulièrement exposées aux risques de détournement de leur image.
Taylor Swift en a récemment fait l'expérience, en mettant au passage en lumière l'inefficacité des équipes de modération de X.com (anciennement Twitter). Toutefois, le réseau social n'est pas le seul responsable dans cette histoire.
Comment détourner la modération en détournant le sujet ?
Lorsqu'il s'agit de générer des images à l'aide de l'intelligence artificielle, il y a l'embarras du choix. Cependant, les personnes qui ont généré les récentes et tristement célèbres images de Taylor Swift auraient, entre autres, utilisé Designer, un programme édité par Microsoft. C'est du moins la conclusion de 404 Media, qui a parcouru 4chan et Telegram pour remonter aux origines de l'affaire.
L'outil comporte pourtant des garde-fous pour éviter de tels débordements. Il y est par exemple impossible d'utiliser des prompts tels que « Taylor Swift nue ». Mais voilà, certains ont réussi à contourner ce dispositif en modifiant légèrement le nom de la célébrité visée, ou en décrivant une scène non sexuelle de telle manière à en obtenir une malgré tout. De sacrées failles, observées et confirmées par nos confrères de 404 Media.
Bien évidemment, tout cela ne fait pas bonne presse à la firme de Redmond, qui affirme ne pas avoir pu vérifier que les images de la star américaine diffusées sur X.com avaient été générées à l'aide de son outil. Elle a toutefois indiqué qu'elle prenait des mesures pour remédier au problème. « Nous disposons d'équipes importantes qui travaillent sur développement de garde-fous et d'autres systèmes de sécurité conformes à nos principes d'IA responsable », explique un porte-parole de l'entreprise.
Un feu qu'il sera difficile d'éteindre complètement
Visiblement, les équipes de Microsoft ont plutôt bien travaillé. Si 404 Media n'a pas réussi à reproduire l'expérience après avoir publié son premier article sur le sujet, les utilisateurs de 4chan et des canaux Telegram impliqués rapportent également de tels changements. Dans l'ensemble, il serait plus difficile qu'auparavant de générer une image comprenant le visage d'une personnalité avec Designer.
Satya Nadella, PDG de Microsoft, a déclaré à NBC News : « Il est de notre responsabilité d'assurer la sécurité de nos utilisateurs ». Il a insisté sur la nécessité pour les entreprises de la tech et les régulateurs de travailler ensemble, un discours déjà entendu depuis plusieurs mois du côté de la Silicon Valley. « Il s'agit d'une convergence sociétale à l'échelle mondiale sur certaines normes », ajoute-t-il, « je pense que nous pouvons faire beaucoup plus que ce que nous imaginons ».
L'affaire Taylor Swift a fait couler beaucoup d'encre, la Maison-Blanche s'étant même laissée aller à son propre commentaire. On ne peut qu'espérer que les choses évolueront dans le bon sens en matière de deepfake. En effet, les technologies de génération par l'IA font déjà partie de notre quotidien, et leur impact sur notre société dans son ensemble ne cesse de croître.
Source : 404 Media