Les géants de la tech s'engage à tout mettre en œuvre pour empêcher la propagation de la désinformation. © Andy.LIU / Shutterstock
Les géants de la tech s'engage à tout mettre en œuvre pour empêcher la propagation de la désinformation. © Andy.LIU / Shutterstock

Meta, OpenAI, Google, Microsoft, IBM, Adobe, SnapChat, X.com, TikTok… Les géants de la tech s'engagent à faire front commun contre la désinformation. Dans leur ligne de mire principalement, les deepfake audio, vidéo et les images générées par l'intelligence artificielle (IA).

Il est urgent d'agir. Cette année, des élections de grande ampleur se produiront dans le monde entier, notamment en Europe, aux États-Unis, en Inde ainsi qu'en Indonésie. Plus de 4 milliards de personnes dans plus de 40 pays sont concernées. Dans le même temps, le nombre de deepfakes a augmenté de 900 % en seulement un an, selon les données de la société Clarity, spécialisée dans l'apprentissage automatique. L'émergence de l'IA générative, popularisée par ChatGPT, inquiète d'autant plus les experts.

Huit engagements

Face à cette menace inédite, les grandes entreprises technologiques ont conclu un accord incluant huit engagements de haut niveau. Ils comprennent l'évaluation des risques liés aux modèles, la recherche, la détection et le traitement de la diffusion de ces contenus sur leurs plateformes ainsi que la transparence pour le public. Le communiqué précise que ces engagements ne s'appliquent que « lorsqu'ils sont pertinents pour les services fournis par chaque entreprise ».

Ce pacte intervient alors qu'OpenAI vient de présenter son IA Sora, qui permet de créer des vidéos réalistes à partir de texte. « Il y a de sérieuses raisons de s'inquiéter de la manière dont l'IA pourrait être utilisée pour tromper les électeurs lors des campagnes. Il est encourageant de voir que certaines entreprises se mettent à table, mais pour l'instant, je ne vois pas assez de détails, et nous aurons probablement besoin d'une législation qui établisse des normes claires », commente Josh Becker, sénateur démocrate de l'État de la Californie.

En janvier, un deepfake audio de Joe Biden demandant aux électeurs démocrates du New Hampshire de ne pas voter aux primaires donnait un exemple de la menace posée par cette technologie. Les deepfakes peuvent être utilisés non seulement pour influencer un vote, mais également pour dissuader les électeurs de se rendre aux urnes.

Capture d'écran d'une vidéo générée par Sora d'OpenAI. © Capture Clubic - OpenAI
Capture d'écran d'une vidéo générée par Sora d'OpenAI. © Capture Clubic - OpenAI

De nombreux défis à relever

Plusieurs entreprises ont déjà pris des mesures afin d'empêcher l'utilisation malveillante de leurs modèles. OpenAI et Meta intègrent un filigrane sur les images générées par leurs IA comme Dall-E et Imagine. Midjourney envisage, pour sa part, d'empêcher la création de visuels mettant en scène des candidats aux élections.

Il leur reste toutefois de nombreux défis à relever. Les filigranes peuvent facilement être contournés, avec une simple capture d'écran par exemple. De même, ils ne sont pour l'instant pas déployés dans les vidéos et audios générés par l'intelligence artificielle. Pour l'heure, les entreprises impliquées se contentent de s'entendre sur un ensemble de normes techniques et de mécanismes de détection… Et il n'est pas assuré que cela soit suffisant pour contrer le problème en profondeur.

Source : CNBC