L'application ChatGPT a une tendance assez déplaisante à inventer une vie aux gens © Vitor Miranda / Shutterstock
L'application ChatGPT a une tendance assez déplaisante à inventer une vie aux gens © Vitor Miranda / Shutterstock

L'association de défense de la vie privée Noyb a déposé une plainte contre OpenAI auprès de l'agence de protection des données autrichienne. Dans son viseur, la propension de ChatGPT à halluciner et générer de fausses informations sur les individus.

Noyb, dirigée par l'emblématique militant Max Schrems, est redoutée par les géants de la technologie. L'association autrichienne est notamment à l'origine de la lourde amende de 1,2 milliard d'euros infligée l'année dernière par les autorités européennes à Meta. En cause, le transfert de données d'utilisateurs européens vers les États-Unis en dehors du cadre légal. L'organisme a désormais tourné son regard vers OpenAI, l'un des leaders du boom de l'intelligence artificielle générative.

Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2024
A découvrir
Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2024

10 novembre 2024 à 19h08

Comparatifs services

OpenAI enfreint le RGPD, selon Noyb

Pour Noyb, les informations parfois fausses générées par ChatGPT concernant des individus bien réels représentent une violation du Règlement général sur les données personnelles (RGPD). Une figure publique dont le nom n'est pas mentionné par l'association a en effet demandé à l'agent conversationnel de lui fournir sa date d'anniversaire. Le chatbot a livré des informations incorrectes à plusieurs reprises, sans indiquer qu'il ne disposait pas de données lui permettant de répondre. Un exemple parfait des hallucinations auxquelles est sujet ce type de modèle, et que les chercheurs peinent encore à rectifier.

« Inventer de fausses informations est déjà problématique en soi. Mais lorsqu'il s'agit de fausses informations sur des personnes, les conséquences peuvent être graves. Il est clair que les entreprises sont actuellement incapables de faire en sorte que les chatbots tels que ChatGPT soient conformes à la législation de l'UE lorsqu'ils traitent des données concernant des personnes », dénonce Maartje de Graaf, avocate spécialisée dans la protection des données chez Noyb.

La personne citée par l'organisme a contacté OpenAI, mais la start-up a refusé sa demande de rectifier ou d'effacer les données à son sujet. De même, elle n'a pas été en mesure de divulguer des informations sur le type de données traitées, leurs sources ou leurs destinataires. Selon Noyb, OpenAI enfreint le RGPD sur deux points supplémentaires : le droit à la rectification des personnes en cas de données erronées à leur sujet et le droit d'accès. « Les entreprises doivent être en mesure de montrer quelles sont les données qu'elles détiennent sur les personnes et quelles en sont les sources », indique l'association.

Ce n'est pas la première fois que ChatGPT est dans le viseur des autorités © sf_freelance / Shutterstock

Pas une première en Europe pour ChatGPT

Noyb a donc décidé de saisir l'agence de protection des données autrichiennes, pour lui demander « d'enquêter sur le traitement des données d'OpenAI et sur les mesures prises pour garantir l'exactitude des données personnelles traitées dans le cadre des grands modèles linguistiques de l'entreprise ». Elle l'encourage également à infliger une amende à l'entreprise.

L'année dernière, l'Italie a temporairement suspendu l'accès à ChatGPT après une importante fuite de données subie par la plateforme.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Sources : Noyb, Reuters