Un groupe bipartisan de députés américains presse Apple, Google et Microsoft de sévir contre les applications de deepfake. Après des révélations de 404 Media, le Congrès exige des mesures concrètes pour endiguer la prolifération des deepfakes à caractère pornographique générés par l'IA.
Le coup de semonce est tombé. À grand renfort de lettres officielles adressées aux géants des GAFAM, les élus américains montent au créneau contre les deepfakes pornographiques.
Les enquêtes de 404 Media ont révélé le pot aux roses des pratiques éditoriales pour le moins légères : les « nudifiy », ces applications capables de déshabiller virtuellement n'importe qui, avec une facilité déconcertante, ne sont retirées que trop longtemps après leur signalement.
Le Congrès pousse les GAFAM à assainir leurs écosystèmes numériques contre les dérives de l'IA
Un groupe bipartisan de 26 représentants républicains et démocrates a décidé de passer à l'offensive. Au travers de courriers officiels adressés à Tim Cook, Sundar Pichai et Satya Nadella, que vous pourrez consulter (en anglais) à la fin de cet article, ils exigent des comptes sur la stratégie de lutte contre les « médias intimes non consensuels ». En clair, ils ciblent les applications de « face swapping » capables de générer des contenus pornographiques sans le consentement des personnes représentées.
L'affaire Taylor Swift, dont des images nues non autorisées ont circulé massivement sur X.com, a servi de détonateur. Microsoft Designer, en permettant ce type de génération, s'est retrouvé directement pointé du doigt. Ces élus ne se contentent pas de dénoncer : ils veulent des plans d'action, des calendriers précis, des engagements vérifiables pour éradiquer ces pratiques.
Les failles béantes des systèmes de modération qui continuent de laisser prospérer des applications malveillantes
Malgré leurs discours officiels, Apple, Google et consorts peinent à juguler l'hémorragie. L'exemple d'Apple est édifiant : ce sont les journalistes de 404 Media qui ont dénoncé trois applications douteuses et contraint la firme à les retirer de l'App Store. Un aveu d'impuissance qui interroge : comment un processus de sélection aussi strict peut-il laisser passer de tels contenus ?
Google n'est pas en reste. Ses résultats de recherche continuaient de promouvoir des applications générant des images nues par l'IA, et ce, malgré ses nouvelles politiques publicitaires. Les termes « applications de déshabillage » ou « meilleurs nus deepfake » généraient encore récemment des résultats promotionnels, preuve que les algorithmes de filtrage restent poreux.
Le nerf de la guerre réside dans le concept de « double usage » : ces applications se présentent comme des outils anodins de face swapping tout en promouvant leur capacité à produire du contenu préjudiciable en dehors des plateformes. Surveiller chaque nouvelle application deviendrait un investissement colossal pour ces entreprises, qui semblent préférer faire aveu d'impuissance dans leurs outils de modération.
Sources : 404 Media, Courriers transpartisans