Comment légiférer sur l'IA pour qu'elle ne soit pas le premier vecteur de déinsformation de l'humain ? © kalamazad8350 / Shutterstock
Comment légiférer sur l'IA pour qu'elle ne soit pas le premier vecteur de déinsformation de l'humain ? © kalamazad8350 / Shutterstock

Une étude de Google sur l'utilisation abusive de l'IA générative révèle que 90 % des cas problématiques résultent d'un usage normal des outils, sans piratage. Le rapport souligne le risque de déformation de la réalité sociopolitique et du consensus scientifique par la prolifération de contenus générés par l'IA.

L'IA générative fait couler beaucoup d'encre. Entre fantasmes et réalité, il est parfois difficile de démêler le vrai du faux. Google, l'un des géants incontestés du secteur, apporte sa pierre à l'édifice avec une étude fouillée sur les dérives de ces technologies. Le constat est sans appel : les utilisations problématiques de l'IA générative ne sont pas le fruit de pirates informatiques chevronnés, mais bien d'utilisateurs lambda qui se servent des outils comme prévu.

Cette révélation bouscule notre perception des risques liés à l'IA et soulève des questions sur notre rapport à l'information à l'ère du numérique. Quand la frontière entre réel et virtuel s'estompe, c'est toute notre compréhension du monde qui vacille.

L'IA générative, un outil de désinformation « par défaut » ?

Intitulée « Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data » (pour Mauvais usage de l'IA générative : une taxonomie des tactiques et des enseignements tirés de données réelles), l'étude de Google met le doigt sur un point crucial : les utilisations abusives de l'IA générative ne sont pas le fait de manipulations complexes. Dans 90 % des cas, les utilisateurs se contentent d'exploiter les capacités normales des systèmes.

Pas besoin d'être un génie de l'informatique pour créer du contenu trompeur ou désinformant à grande échelle. Cette facilité d'utilisation pose des questions. Les outils d'IA générative sont-ils conçus pour favoriser la désinformation ? Rien n'est moins sûr, alors que les géants du GAFAM, dont Google, s'étaient engagés à lutter contre les fake news créées par IA pour les prochaines élections, notamment aux États-Unis.

Le problème vient plutôt de l'absence de garde-fous efficaces. Les politiques de modération des plateformes peinent à suivre le rythme effréné de l'innovation. Résultat : n'importe qui peut créer des deepfakes convaincants ou des textes trompeurs en quelques clics. Cette démocratisation de la création de contenu a ses avantages, mais elle a aussi un côté obscur. La quantité prime souvent sur la qualité, et le vrai se noie dans un océan de faux.

Les chercheurs de Google tirent la sonnette d'alarme : sans régulation adaptée, à l'instar de l'IA Act, c'est notre perception même de la réalité qui est en jeu. Quand le faux devient indiscernable du vrai, comment maintenir un débat public sain ?

L'IA générative, fossoyeur de la confiance publique ?

Au-delà de la simple désinformation, l'étude de Google pointe un risque plus insidieux encore : l'érosion de la confiance du public. La prolifération de contenus générés par l'IA brouille les pistes. Comment distinguer une vraie photo d'un deepfake ultra-réaliste ? Un article écrit par un humain d'un texte généré par une IA ? Cette incertitude permanente nourrit le scepticisme.

Le phénomène touche tous les domaines. En politique, des campagnes de désinformation sophistiquées peuvent influencer le cours d'une élection. Dans le monde scientifique, la diffusion massive de fausses études menace le consensus sur des sujets cruciaux comme le changement climatique. Même la sphère personnelle n'est pas épargnée, avec la multiplication des arnaques et des usurpations d'identité en ligne.

Est-ce que l'IA nous est utile ou nuisible ? © PeopleImages.com - Yuri A / Shutterstock

Les chercheurs de Google mettent en garde contre un effet pervers : le « dividende du menteur ». Face au flot de contenus douteux, il devient de plus en plus facile pour des personnalités publiques de rejeter des preuves gênantes en les qualifiant de « fakes » générés par l'IA. La charge de la preuve s'inverse, au détriment de la vérité.

L'étude souligne un paradoxe : les outils d'IA générative, censés faciliter l'accès à l'information, pourraient finir par entraver la recherche de la vérité. Les utilisateurs, submergés par un déluge de contenus douteux, risquent de baisser les bras. La méfiance généralisée qui en découle menace les fondements mêmes de nos sociétés démocratiques.

Sources : 404 Media, arXiv