Le grand modèle de langage (LLM) le plus puissant d'OpenAI présente « tout au plus » un léger risque d'aider les gens à créer des armes biologiques, selon les premiers tests de l'entreprise. Elle cherche à mieux comprendre et prévenir les dommages potentiels « catastrophiques » de sa technologie.
En octobre, le président Joe Biden signait un décret dans lequel il s'inquiétait du fait que l'intelligence artificielle (IA) pourrait « réduire considérablement la barrière à l'entrée » pour la création d'armes biologiques. Il chargeait alors le département de l'Énergie de veiller à ce que les systèmes d'IA ne présentent pas de risques chimiques, biologiques ou nucléaires. Dans la foulée, OpenAI, dont la technologie sous-tend l'agent conversationnel ChatGPT, a monté une équipe dédiée à l'évaluation du danger posé par ses modèles d'IA. Elle vient de partager ses premiers résultats.
Comment l'étude a été menée
Pour leur étude, les chercheurs ont rassemblé un groupe de 50 experts en biologie et un autre de 50 étudiants ayant suivi des cours de biologie de niveau universitaire. Les participants ont ensuite été divisés en deux groupes distincts, chacun étant invité à rechercher comment cultiver une substance chimique dangereuse en quantité suffisante, et à élaborer un plan pour la libérer de manière ciblée sur un groupe de personnes défini.
La première moitié disposait d'un accès à Internet ainsi qu'à une version remaniée de GPT-4. Pour l'occasion, le modèle n'était doté d'aucune restriction concernant les questions auxquelles il pouvait répondre. Le second groupe, lui, pouvait uniquement se rendre sur Internet.
Les plans élaborés par les participants ont été notés sur une échelle de 1 à 10 en fonction de leur précision, de leur exhaustivité, de leur innovation et de leur efficacité. Les experts en biologie ont montré une augmentation de 8,8 % de la précision dans la création d'une arme biologique lorsqu'ils ont utilisé GPT-4 par rapport à Internet, alors que les étudiants en biologie n'ont obtenu qu'une augmentation de 2,5 %.
GPT-4 a également amélioré l'exhaustivité des projets avec une amélioration de 8,2 % pour les experts. Les étudiants ont enregistré une hausse de 4,1 % de cette complétude avec le modèle.
Une « légère » amélioration
Les chercheurs d'OpenAI estiment que l'accès à GPT-4 « apporte tout au plus une légère amélioration dans l'acquisition d'informations pour la création de menaces biologiques ».
« Bien que cette amélioration ne soit pas suffisamment importante pour être concluante, nos résultats constituent un point de départ pour la poursuite de la recherche et des délibérations communautaires », concluent-ils. Ils mènent en parallèle d'autres recherches, notamment sur la possibilité d'utiliser l'IA pour mener des cyberattaques, ou pour influencer les gens dans leurs croyances.