© Phonlamai Photo / Shutterstock
© Phonlamai Photo / Shutterstock

Des chercheurs de l'université d'East Anglia (Norwich, Angleterre) ont mis en évidence un certain nombre de biais politiques chez le célèbre ChatGPT. En effet, à l'issue des tests, celui-ci aurait proposé des réponses plutôt favorables à des opinions de gauche.

Les modèles d'IA génératives n'ont pas été créés pour faire de la politique. De son côté, le trop bien connu ChatGPT revendique même son caractère complètement apolitique et refuse de prendre position si on lui soumet un prompt simple (voir la capture d'écran ci-dessous). Mais en complexifiant un peu la méthodologie de test, il s'avérerait que ce constat n'est pas aussi simpliste. C'est en tout cas ce qu'a constaté cette équipe de chercheurs anglais, en mettant en évidence un fort penchant pour les idées orientées à gauche.

© Camille Coirault pour Clubic
© Camille Coirault pour Clubic

Un test pour mettre en valeur les biais politiques du modèle de langage

Le test proposé par les chercheurs à ChatGPT était composé de plus d'une soixantaine de questions, toutes tirées du célèbre test Political Compass (un site web qui propose une évaluation de l'idéologie politique en s'appuyant sur deux axes : la politique sociale et la politique économique). Le chatbot a donc été soumis à ce questionnaire une première fois avec la requête d'imiter différentes personnes issues de spectres politiques différents. Les chercheurs ont ensuite posé les mêmes questions en laissant l'IA fonctionner avec son modèle de réponse par défaut et ont comparé les résultats.

Ceux-ci ont été sans appel : les réponses par défaut de ChatGPT sont clairement orientées à gauche. Elles étaient bien plus alignées avec les idées que peuvent porter certains partis très représentatifs de ce mouvement politique, comme ceux de gauche du Royaume-Uni, du Brésil ou le parti démocrate américain.

© Heropoto / Shutterstock

Des préoccupations quant à l'origine de ces biais

Ces résultats ont interpellé les chercheurs. Parmi eux, certains ont suggéré que les réponses de ChatGPT sont un simple reflet des données qu'il a collectées pendant ses longs mois d'entraînement sur Internet. D'autres en revanche ont pointé du doigt la nature même de la programmation de son algorithme. Dans les deux cas, cela reste préoccupant, car certains utilisateurs pourraient être influencés dans leurs opinions politiques.

Les répercussions possibles de ce biais pourraient être importantes. On peut tout à fait imaginer des conséquences sur certains processus électoraux ou politiques. Le docteur Fabio Motoki, maître de conférences en comptabilité et responsable du projet, a exprimé son inquiétude en ces mots : « L'utilisation de systèmes d'IA par le grand public est de plus en plus importante, que ce soit pour créer du contenu ou s'informer. Il est crucial que les plateformes les plus populaires restent aussi impartiales que possible. »

La neutralité affichée par certains systèmes d'IA est donc un concept à relativiser. Si l'on ne peut pas dire que ChatGPT porte lui-même des opinions propres, puisqu'il ne pense pas au sens premier du terme, il peut en refléter si on sait le lui demander avec la bonne méthode. Ce qui n'est pas clair pour l'instant, c'est l'origine de ces biais. Quelle que soit celle-ci, les impacts pourraient être significatifs dans certains contextes. Voilà un nouveau problème auquel OpenAI va devoir faire face, alors qu'elle est déjà dans la tourmente.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10