L'IA va connaître la frustration d'avoir un boss qui ne comprend pas son travail.
C'est du moins l'idée qui régit la « superalignment research team », une équipe au sein d'OpenAI qui est exclusivement dédiée au développement de garde-fous pour empêcher que leur création ne soit à l'origine de catastrophes. Et pour contrôler une IA trop complexe pour la compréhension humaine, qui est mieux placé qu'une autre IA beaucoup plus limitée ?
La « Superalignment research Team », pour empêcher que l'IA soit hors de contrôle
Depuis la sortie de ChatGPT, qui a véritablement placé le développement de l'intelligence artificielle au centre du débat public, les différents laboratoires d'IA et leurs patrons se sont rarement faits discrets quand il s'agissait de présenter les risques potentiellement cataclysmiques de leurs créations. Certains observateurs se sont montrés quelque peu sceptiques quant à la sincérité de ces déclarations, mais OpenAI ne s'est pas contenté d'agiter les bras : en juillet dernier, le laboratoire a formé la « Superalingment research team ».
Cette équipe a pour consigne de freiner, réguler, et gouverner les IAs « superintelligentes », c'est-à-dire des IA théoriquement largement plus intelligentes que des humains. Un champ de recherche qui reste encore largement à découvrir : il implique en effet de contrôler des systèmes plus intelligents que ceux qui s'en chargent. Ce qui est pour l'instant entièrement théorique puisque ces derniers sont a priori encore loin de voir le jour.
Par ailleurs, il n'est pas inenvisageable de voir cette équipe connaître des bouleversements dans un futur proche puisqu'elle est pour l'instant toujours dirigée par Ilya Sutskever, l'un des leaders du putsch avorté contre Sam Altman…
L'IA va même prendre le job de ceux qui la contrôlent
Puisque ce système d'IA super intelligente n'existe pas encore, ceux qui ont la charge de la contrôler doivent donc développer des modèles dont on ne connaîtra l'efficacité que lorsqu'ils seront nécessaires. Pour l'instant, pour superviser les IA qu'il développe, le laboratoire implique des humains, qui donnent des feedbacks aux LLM, pour encourager les bonnes réponses et éviter autant que possible celles qui ne le sont pas. Un métier récent, et qui pourrait déjà bientôt faire partie du passé, puisque l'équipe de Sutskever travaille à automatiser le procédé grâce à une différente intelligence artificielle.
Ce changement a pour but à la fois de gagner du temps, mais aussi d'éviter d'arriver à un point où les humains ne peuvent tout simplement plus donner de retours utiles à des modèles qui deviennent trop puissants. C'est ainsi que des tests ont été réalisés pour que GPT-4 soit encadré par GPT-2, modèle datant de 2019. Mais ces derniers ont montré que dans ce cas le modèle le plus avancé avait tendance à rapidement se dégrader pour se mettre au niveau de l'autre.
La solution à un problème qui ne se pose pas encore est donc déjà insatisfaisante.
Source : TechCrunch, Wired