Au cours du week-end, une note vocale attribuée au président Biden a circulé dans l'État du New Hampshire, elle appelait à s'abstenir de voter aux primaires démocrates. Problème, le message a été généré par une intelligence artificielle (IA), suscitant de grandes inquiétudes chez les experts de la désinformation.
Fruits des avancées de l'IA, les deepfakes permettent de faire dire n'importe quoi à n'importe qui. Si de nombreuses vidéos falsifiées ont déjà fait le tour de la toile, les deepfakes audio sont eux aussi de plus en plus répandus. Utilisés dans de vastes campagnes d'arnaques, ils sont faciles à réaliser, peu coûteux à produire et particulièrement difficiles à tracer. Alors que de nombreuses élections se tiendront au cours de 2024, le faux message de Joe Biden met les experts en état d'alerte. « Nous sommes à l'ère du deepfake politique », prévient Robert Weissman, président du groupe de réflexion sur la défense des consommateurs Public Citizen.
Des élections cruciales en 2024
Ce message vocal, envoyé sur le téléphone d'habitants du New Hampshire, les exhortait à ne pas voter aux primaires démocrates de l'État, tout en usant une expression propre au président. « Conservez votre vote pour les élections de novembre », indiquait-il.
Cet événement démontre que les deepfakes peuvent être utilisés non seulement pour influencer un vote, mais également pour dissuader les électeurs de se rendre aux urnes. « Même si ces fausses informations introduisent une confusion qui n'a d'impact que sur quelques centaines ou milliers de votes, elles peuvent être significatives en termes de résultats et d'issue », s'inquiète Nick Diakopoulos, professeur à l'université Northwestern et chercheur sur les manipulations audio et les élections. Au mois de novembre, les Américains voteront pour le 47e président des États-Unis. Les élections du Parlement européen se tiendront quant à elles des 6 au 9 juin.
La prolifération de deepfakes pourrait empirer, boostée par l'essor de l'IA générative. Les investisseurs portent un intérêt certain aux start-up spécialisées dans le clonage de voix. ElevenLabs, société qui développe une technologie pour reproduire les voix, vient justement de compléter une levée de fonds la valorisant à plus d'1 milliard de dollars.
Un possible « chaos électoral »
L'utilisation de ce type de faux messages dans un contexte électoral est d'autant plus préoccupante lorsqu'ils circulent sur des téléphones. Ils sont bien plus difficiles à tracer que ceux qui sont diffusés en ligne. Dans ce contexte, le président de Public Citizen enjoint les législateurs à mettre en place des protections contre les faux enregistrements audio et vidéo afin d'éviter le « chaos électoral ».
Au CES 2024, McAfee a présenté une technologie de détection des deepfakes audio. Elle atteint une précision de 90 % sur les sons générés par l'IA, affirme l'entreprise.
Source : Bloomberg