Europol alerte sur l'augmentation des contenus pédopornographiques générés par l'intelligence artificielle. L'agence européenne souligne la difficulté croissante d'identifier les victimes et les auteurs. Même les images entièrement artificielles contribuent à l'objectivation et à la sexualisation des enfants, précise l'agence européenne.
En 2022, le Conseil de l'Europe s'inquiétait déjà de la prolifération de contenus à caractère sexuel autogénérés. Et à raison : l'intelligence artificielle révolutionne de nombreux domaines, mais elle sert aussi des fins criminelles. Europol tire la sonnette d'alarme, les images d'abus sexuels sur enfants créées par l'IA se multiplient. Ce phénomène inquiétant complique le travail des enquêteurs. Comment distinguer le vrai du faux ? Comment identifier les victimes réelles ? Ces questions hantent les autorités.
L'IA ne se contente pas de générer des contenus pédopornographiques. Elle les modifie aussi, brouillant encore plus les pistes. Résultat : un flot croissant d'images illicites inonde le Web. Europol tire la sonnette d'alarme. L'agence rappelle que même les images 100 % artificielles posent un problème, elles alimentent l'objectivation et la sexualisation des enfants. Une situation alarmante qui appelle une réponse urgente.
Contenus à caractère pédopornographique : Europol s'inquiète malgré l'engagement des géants de l'IA
Les géants du secteur ont beau promettre monts et merveilles, Europol reste sur ses gardes. Amazon, Google, Meta, Microsoft et compagnie ont signé une belle déclaration, ils s'engagent à empêcher l'utilisation de leurs outils pour créer du matériel pédopornographique. Un geste louable, certes. Mais suffisant ? Europol en doute.
L'agence européenne constate par ailleurs que le problème s'aggrave. En 2023, rien qu'aux États-Unis, plus de 104 millions de fichiers suspects ont été repérés. Et l'IA n'arrange rien. Elle démocratise la création de contenus pédopornographiques. N'importe qui peut désormais produire des images réalistes d'enfants abusés. Un cauchemar pour les enquêteurs.
Les géants de la tech promettent de former leurs IA à la sécurité des enfants. Ils veulent intégrer cette préoccupation dès la conception des modèles. Mais le défi est immense. Comment anticiper toutes les dérives possibles ? Comment bloquer efficacement la création de contenus illicites sans entraver les usages légitimes ?
Europol pointe aussi le problème des « deepfakes ». Ces vidéos ultra-réalistes générées par l'IA piègent même les experts. Elles servent au chantage, à l'extorsion, au cyberharcèlement. Les ados en sont les premières victimes. L'agence européenne ne nie pas les efforts de l'industrie. Mais elle rappelle que la vigilance reste de mise. En effet, les criminels s'adaptent vite et trouvent toujours de nouvelles failles à exploiter. La lutte contre la pédopornographie en ligne est un combat de longue haleine que l'IA ne fait que complexifier.
L'IA, un outil formidable ou une menace protéiforme pour la société ?
Côté santé, on peut dire que l'IA fait des merveilles. Au Brésil, un simple smartphone détecte les AVC, avec 82 % de précision. De quoi sauver des vies en accélérant la prise en charge. Et ce n'est qu'un début. Les chercheurs planchent déjà sur d'autres applications médicales.
La cybersécurité n'est pas en reste. Google sort le grand jeu avec « Threat Intelligence », un outil qui traque les malwares et déniche leurs failles en un clin d'œil. Il dresse aussi un panorama des menaces en temps réel, ce qui est bien pratique pour anticiper les attaques. Pour sa part, Microsoft ne se repose pas sur ses lauriers, et son « Copilot for Security » utilise GPT-4 pour muscler la défense des entreprises.
L'IA simplifie aussi la vie des créateurs de sites web. Wix propose désormais un outil bluffant qui permet d'obtenir en quelques minutes un site sur mesure. Un gain de temps phénoménal pour les entrepreneurs. Enfin, on peut louer les services de l'intelligence artificielle, notamment en matière d'assistance à la protection des enfants contre les contenus pornos, comme le chatbot de Pornhub.
Mais attention, l'IA a aussi son côté sombre, et c'est cet aspect qui inquiète Europol. Les contenus pédopornographiques générés par l'IA explosent, comme dit précédemment. L'IA booste aussi les fake news et les deepfakes, elle crée des contenus trompeurs ultra-réalistes, ce qui fait que les campagnes de désinformation gagnent en puissance. La confiance dans les médias et les institutions en prend un sacré coup.
C'est probablement ce qui justifie le plus l'AI Act, le règlement européen qui encadre l'utilisation de l'IA selon les risques. Certaines pratiques seront interdites, d'autres seront très encadrées, avec des autorités de contrôle qui veilleront au grain. Le déploiement de ce texte de loi s'étalera jusqu'en 2026, ce qui représente, comme vous pouvez vous en douter, un sacré chantier.
Ainsi, l'IA ouvre des perspectives fascinantes, mais gare aux dérives. Un encadrement strict s'impose pour préserver nos valeurs et notre sécurité : un défi de taille, mais le jeu en vaut la chandelle.
Source : Europol