© Shutterstock
© Shutterstock

Le député de la majorité présidentielle Éric Bothorel a annoncé avoir saisi la CNIL ce mercredi après avoir constaté de grossières erreurs sur son profil présenté par ChatGPT.

Vrai passionné de nouvelles technologies, Éric Bothorel a décidé de titiller ChatGPT en lui demandant d'établir sa biographie et de dresser son profil, lui qui est député de la 5e circonscription des Côtes-d'Armor depuis le 6 mai 2017. Le robot conversationnel d'OpenAI a livré des réponses très étonnantes au cours de plusieurs tentatives, avec de nombreuses erreurs et approximations. En conséquence, l'ex-élu socialiste désormais affilié Renaissance a décidé de saisir la CNIL.

Une biographie made in ChatGPT « un poil » approximative

« Et le mythe de ChatGPT s'effondra… » a écrit Éric Bothorel dans un tweet en publiant le 11 avril plusieurs captures d'écran des réponses de l'IA à ses prompts (les consignes ou requêtes). Plusieurs erreurs notables peuvent en effet être relevées.

S'il est bien un homme politique, Éric Bothorel n'est pas né le 20 novembre 1961 à Morlaix ni le 2 janvier 1975 à Guingamp comme ChatGPT a pu l'indiquer, mais bien le 20 octobre 1966 à Paimpol, dans les Côtes-d'Armor. On peut très facilement retrouver ces informations aussi bien sur le site de l'Assemblée nationale que sur la page Wikipédia du député.

Pourtant, ChatGPT a failli, et la liste des erreurs est ici non exhaustive. Le robot conversationnel lui a prêté au passage une carrière imaginaire de maire de Saint-Brieuc depuis 2014. Le lendemain, mercredi 12 avril, l'élu a décidé de déposer une plainte auprès de la CNIL, qui est bien plus importante qu'on ne le croit.

© Stéphane de Sakutin / AFP
© Stéphane de Sakutin / AFP

ChatGPT dit lui-même ne pas être fiable à 100 %

La futilité de la requête initiale qui a entraîné la plainte permet de soulever plusieurs éléments. D'abord, il est bon de rappeler que ChatGPT n'est qu'un générateur de texte, et qu'en ce sens, il n'a pas vocation à être un moteur de recherche qui ne connaît pas l'erreur. ChatGPT nous l'indique lui-même, lorsqu'on lui demande ce qu'il pense des informations qu'il nous donne sur certaines biographies :

En tant que modèle de langage, je n'ai pas la capacité de connaître ou de savoir si les informations que je fournis sont fausses ou non. Je suis programmé pour générer des réponses en fonction des données d'entraînement que j'ai reçues, qui s'appuient sur des textes en ligne accessibles au public. Cependant, il est possible que des erreurs ou des inexactitudes se glissent dans les informations que je fournis, car je suis un algorithme informatique, et non un être humain qui peut comprendre les nuances et les contextes complexes. C'est pourquoi il est important de toujours vérifier les informations que je fournis auprès de sources fiables et d'exercer un esprit critique lors de la lecture de tout type d'informations en ligne.

ChatGPT a beau être un outil rédactionnel à l'utilité certaine et prometteuse, il n'a aujourd'hui pas vocation à fournir de l'information comme le ferait un média. Le problème est ailleurs.

ChatGPT peut-il tomber sous le coup du RGPD ?

Ce problème, c'est celui des données personnelles traitées (et/ou mal interprétées par ChatGPT). La question est en effet de savoir si l'outil conversationnel doit faire l'objet d'un encadrement, d'une régulation au regard des informations qu'il absorbe et diffuse, et surtout, s'il doit être considéré comme un outil devant assurer un traitement de la donnée personnelle.

Comme le rappelle très justement Guillaume Champeau (ancien de Qwant et au fait des questions liées aux données personnelles), la CNIL va devoir livrer sa réponse sur l'inexactitude des informations fournies dans les résultats, que l'on peut rattacher à l'article 5d du RPGD. Ce dernier nous dit que « les données à caractère personnel doivent être […] exactes et, si nécessaire, tenues à jour ». Le texte ajoute que « toutes les mesures raisonnables doivent être prises pour que les données à caractère personnel qui sont inexactes […] soient effacées ou rectifiées sans tarder ».

Il n'est pas certain que ChatGPT octroie encore des droits de réponse, mais sait-on jamais ! Toujours est-il que même si le robot conversationnel ne doit pas être considéré comme encyclopédique, le considérer comme un outil traitant des données personnelles créerait une sacrée pagaille, dans un contexte où la réglementation sur l'IA est déjà bien assez floue.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Sources : Éric Bothorel sur Twitter, Clubic