Les grands noms de l'intelligence artificielle se sont rejoints pour une déclaration commune. L'objectif est de travailler à empêcher l'utilisation d'outils IA dans le but de générer du contenu à caractère pédopornographique.
Si elles ne se régulent pas elles-mêmes, les grandes entreprises qui se font en ce moment concurrence dans le domaine de l'intelligence artificielle savent qu'elles auront à être régulées par les pouvoirs publics. Raison pour laquelle, depuis un an, elles se rejoignent sur un certain nombre de causes communes en lien avec le développement responsable de l'IA. Aujourd'hui, elles se font ainsi entendre pour combattre la production de matériel pédopornographique.
Tous les grands noms signent une déclaration
L'organisation de lutte contre la traite des êtres humains et l'exploitation sexuelle des enfants Thorn, ainsi que l'organisation qui travaille au développement responsable de la technologie All Tech is Humain, ont réussi un joli coup.
Elles viennent en effet de rassembler l'ensemble des grands noms actuels de l'IA générative autour d'un texte dans lequel les grandes entreprises du secteur affirment qu'elles travailleront pour empêcher l'usage de leurs outils pour produire du matériel pédopornographique. Et l'on retrouve presque tout le monde dans cette déclaration : Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI, OpenAI et Stability AI.
Thorn se félicite de cet engagement « qui constitue un précédent inédit pour le secteur et représente une avancée significative dans les efforts déployés pour défendre les enfants contre les abus sexuels, à mesure que l'IA générative prend de l'ampleur. »
Faire attention aux données utilisées pour développer les IA
Les mesures qui doivent être prises pour remplir cette promesse s'articulent autour de trois piliers :
- Produire des modèles d'IA générative qui traitent en amont les risques liés à sécurité des enfants ;
- Ne rendre publiquement disponibles que des IA génératives qui auront été formées à la question de la sécurité des enfants ;
- Intégrer dans la maintenance de la sécurité des modèles les risques en rapport à la production de matériel pédopornographique.
Comme le note Thorn, le problème posé par la diffusion de matériel pédopornographique est déjà grave. Rien qu'aux États-Unis, plus de 104 millions de fichiers suspects ont été identifiés durant l'année 2023. Pour l'organisation, les progrès de l'IA générative ne feraient qu'accroître cette difficulté si les fabricants de modèles ne se saisissaient pas de la question.
10 novembre 2024 à 19h08