ChatGPT fait l'objet d'une nouvelle plainte pour atteinte à la vie privée. La technologie aurait accusé un citoyen norvégien d'avoir assassiné ses enfants. Problème : c'est complètement faux.

Les hallucinations de ChatGPT mises en cause © Amir Sajjad / Shutterstock
Les hallucinations de ChatGPT mises en cause © Amir Sajjad / Shutterstock

Il ne se passe pas un jour sans qu'on n'entende parler des évolutions de ChatGPT. Très appréciée, la technologie a doublé son nombre d'utilisateurs en l'espace de 6 mois.

Mais tout n'est pas rose dans le monde de l'IA : suite à des hallucinations diffamatoires particulièrement graves, ChatGPT a été accusé d'atteinte à la vie privée. On vous explique.

ChatGPT accusé d'atteinte à la vie privée

Arve Hjalmar Holmen vit une bien triste histoire. Ce citoyen norvégien a découvert un beau matin que ChatGPT générait de fausses réponses à son sujet : l'intelligence artificielle affirmait notamment qu'il avait tué ses deux premiers enfants et tenté d'assassiner le troisième. L'homme a tout de suite porté plainte, soutenu par l'association de défense du droit privé autrichienne None of Your Business (Noyb). La communauté locale, quant à elle, est sous le choc.

Ce n'est pas la première plainte à laquelle fait face OpenAI. ChatGPT a notamment, par le passé, été accusé d'avoir diffusé des dates de naissance erronées ou fait erreur sur des détails biographiques. En décembre dernier, le service avait notamment écopé d'une amende de 15 millions d'euros en Italie pour non-respect des données personnelles.

Il faut savoir, qu'à ce jour, OpenAI ne permet toujours pas à ses utilisateurs de corriger les erreurs de son IA, ce qui est particulièrement problématique. Comme l'a notamment expliqué Joakim Söderberg, avocat spécialisé en protection des données chez Noyb : « Le RGPD est clair. Les données personnelles doivent être exactes. Si ce n'est pas le cas, les utilisateurs ont le droit de les faire rectifier pour refléter la vérité. Afficher aux utilisateurs de ChatGPT un petit avertissement indiquant clairement que le chatbot peut commettre des erreurs ne suffit pas. »

L'association Noyb a partagé à TechCrunch la capture d'écran de l'hallucination © OpenAI / Capture prise par Noyb
L'association Noyb a partagé à TechCrunch la capture d'écran de l'hallucination © OpenAI / Capture prise par Noyb

Les hallucinations des IA sur la sellette

L'association militante Noyb n'en est pas à son premier coup d'essai : en 2024, elle a déjà porté plainte contre Meta et contre X.com et continue de se battre pour faire respecter le RGPD. L'objectif serait que les législateurs européens adoptent une approche bien plus prudente quant à la protection des données personnelles.

Interrogé par TechCrunch sur la plainte, OpenAI n'a pour l'heure pas communiqué sur le sujet. Une mise à jour de ChatGPT a toutefois permis de mettre fin aux hallucinations de l'outil sur M. Hjalmar Holmen. Mais, comme le souligne Kleanthi Sardeli, une autre avocate de l'organisation Noyb, cela n'est pas suffisant : « Les entreprises d'IA devraient cesser de faire comme si le RGPD ne s'appliquait pas à elles, alors que c'est clairement le cas. Si l'on ne met pas fin aux hallucinations, la réputation des gens peut facilement en pâtir. »

La gravité de cette affaire pourrait inciter les législateurs européens à être plus stricts face aux débordements des intelligences artificielles génératives. Cependant, le traitement des plaintes prend encore beaucoup de temps : pour exemple, une plainte déposée par Noyb en avril 2024, a été transférée à la Commission de Protection des Données, basée en Irlande. Elle est, à ce jour, toujours en cours de traitement.

Rappelons que, si la violation était confirmée, OpenAI devrait s'acquitter d'une amende pouvant aller jusqu’à 4 % de son chiffre d’affaires annuel mondial.

Source : TechCrunch

  • Peut tourner en local selon votre configuration
  • Open-source
  • API peu coûteuse
À découvrir
Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2025

30 décembre 2024 à 11h18

Comparatifs services