ChatGPT et le reste des intelligences artificielles qui pullulent sur le web vont-elles faire courir des risques « catastrophiques » à la race humaine ? L'entreprise derrière le chatbot s'y prépare en tout cas.
« Quels dangers les systèmes d'IA de pointe vont-ils poser lorsqu'ils seront utilisés à mauvais escient ? » C'est à cette question compliquée qu'OpenAI veut tenter de répondre. L'entreprise derrière ChatGPT vient, en effet, de monter une équipe dédiée à évaluer le danger que peuvent poser les futurs systèmes d'intelligence artificielle.
Les risques posés par l'intelligence artificielle générale
Le moins qu'on puisse dire, c'est que la firme prend le sujet au sérieux. Dans son billet d'annonce, elle explique d'emblée que « l'équipe contribuera au suivi, à l'évaluation, à la prévision et à la protection contre les risques catastrophiques [….] comme le phishing, la cybersécurité, et les menaces chimiques, biologiques, radiologiques et nucléaires ». Histoire de noircir encore un peu le tableau, « la reproduction et l'adaptation autonome », soit une sorte de singularité technologique, sont aussi citées comme des risques potentiels.
Concrètement, OpenAI — qui avouait dès son acte de naissance en 2015 que l'IA « pourrait nuire à la société si elle était conçue ou utilisée de manière inadaptée » — veut aujourd’hui réfléchir aux garde-fous à imposer à sa propre invention. Plus exactement, ce sont les IA de demain qui inquiètent l'entreprise. OpenAI parle, en effet, des « frontier models », soit des modèles d'intelligence artificielle générale encore inexistants, mais qui « dépasseront les capacités des modèles existants les plus avancés ».
OpenAI veut s'auto-réguler
L'entreprise craint que ces cerveaux numériques soient utilisés pour tromper et arnaquer les internautes (c'est déjà le cas), créer du code malveillant (c'est aussi déjà le cas) et potentiellement prendre le contrôle de certaines infrastructures critiques comme les centrales nucléaires (ce n'est, à priori, pas encore le cas).
L'équipe sera dirigée par Aleksander Madry, un ponte du MIT, et œuvrera pour « la création d'un éventail de mesures de protection et la mise en place d'une structure de gouvernance pour la responsabilité et la surveillance » de l'IA. Si la création d'une telle entité ne peut pas faire de mal, les scénarios évoqués par OpenAI n'incitent pas vraiment à l'optimisme.
De plus, la structure étant directement sous la gouvernance d'une des plus grandes entreprises dédiée au développement de l'IA, les conflits d’intérêts semblent difficiles à éviter. Espérons que les États et les structures internationales ne tardent pas à s'intéresser au sujet aussi.
Source : OpenAI
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code