Les compétences de ChatGPT ont été mises à l'épreuve pour voir si l'IA d'OpenAI pouvait fournir une étude scientifique convaincante.
En collaboration avec des scientifiques de l'université de Chicago, Dr. Catherine Gao, chercheuse à l'université de Northwestern, a en effet essayé de voir si un tel comité pouvait se faire duper par une étude réalisée majoritairement par une intelligence artificielle.
Une science pas tout à fait exacte
L'étude ainsi fabriquée par ChatGPT portait sur des questions médicales et s'inspirait de papiers issus de journaux éminents dans le domaine. Pour brouiller les pistes, cette étude comportait autant d'informations avérées que fausses.
Dr. Catherine Gao a ensuite soumis cette étude à l'examen d'un comité de scientifiques, au courant qu'une partie de celle-ci était fausse. Pour autant, il a été établi que les fausses informations véhiculées par ChatGPT ont été décelées 68 % du temps. 14 % des scientifiques ont également identifié de manière erronée que les vraies informations étaient générées par l'IA.
De même, l'étude réalisée à l'aide de ChatGPT a été passée au crible d'un détecteur de plagiat qui a fait chou blanc. Une partie du comité de scientifiques, pourtant sensibilisés sur ces questions, s'est aussi fourvoyée sans voir que l'étude était pour ainsi dire une version repompée de divers articles.
Si les outils traditionnels et l'œil humain ont été dupés quant au plagiat opéré par ChatGPT, tel n'a pas été le cas des détecteurs de plagiat propulsés par l'intelligence artificielle comme GPT-2. En substance, l'IA serait donc la meilleure arme contre elle-même.
Des résultats lourds de sens
« Le fait que 32 % du comité aient été dupés montre à quel point ChatGPT peut se montrer convaincant. Je pense que n'importe qui d'autre tombant sur cette étude fictive serait incapable de voir qu'elle a été écrite par une intelligence artificielle », indique Catherine Gao dans ses conclusions sur l'expérience.
Cela représente une proportion relativement petite de scientifiques s'étant fourvoyés sur l'origine de l'étude, mais ce résultat se montre tout de même lourd de sens. Catherine Gao estime en effet que cela pourrait entraîner la création d'autres études similaires, par définition erronées. « Et si d'autres personnes essaient de construire leur raisonnement scientifique à partir de ces études incorrectes, les conséquences pourraient être très graves », s'inquiète-t-elle.
À l'inverse, Yuan Lao, directeur de l'Institut pour l'intelligence augmentée en médecine à l'université de Feinberg, estime que l'intelligence artificielle pourrait être utilisée dans ce domaine comme une force pour le bien : « Ces outils ont le potentiel d'automatiser le processus de rédaction afin de fournir des études scientifiques plus rapidement. »
Dr. Alexander Pearson, directeur des données scientifiques en oncologie, estime quant à lui que des outils tels que ChatGPT pourraient contribuer à la démocratisation de la science : « Par exemple, ils permettraient aux scientifiques ne parlant pas anglais de partager leurs travaux avec une communauté plus large. »
Autant dire que les intelligences artificielles telles que ChatGPT ne font pour l'instant pas consensus… scientifique.
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
Source : bioRxiv