© Shutterstock
© Shutterstock

ChatGPT est un outil formidable, encore faut-il savoir l'utiliser de façon raisonnée. Comprendre les dangers de l'IA permet de mieux s'en prémunir.

Avec plus de 100 millions d'utilisateurs actifs, ChatGPT relève à la fois du formidable, de l'intrigant et du dangereux. En l'absence d'un recul conséquent en la matière et dans un contexte de croissance exponentielle des usages faits de cet outil, ChatGPT pourrait poser des problèmes quant à la sécurité. Cet article a pour ambition de dresser un panorama des risques liés à ce chatbot dopé à l'intelligence artificielle, notamment en matière de protection des données.

ChatGPT et apprentissage à partir du langage naturel

Par son fonctionnement intrinsèque, ChatGPT est doté de la faculté à comprendre ce que l'utilisateur lui indique en langage naturel. Pour rappel, dans ce cadre, le langage naturel signifie une saisie de données dans une langue parlée par l'humain, a contrario d'un script issu d'un langage informatique. Si ChatGPT est à même de comprendre ce que l'utilisateur lui explique en ses propres mots, le système fonctionne sous la technologie du machine learning. Cette caractéristique fait qu'il apprend des conversations menées avec tous les utilisateurs afin d'affiner de lui-même la précision et la pertinence de ses futures réponses. Partant de ce postulat, des questions sur la confidentialité liée aux données personnelles et sur la sécurité de ces dernières peuvent se poser.

Inquiétudes et réalités fondées

Les plus grands groupes se penchent désormais activement sur ces questions. Comme nous l'écrivions en mai dernier dans nos colonnes, Samsung fait déjà mur depuis le printemps contre le recours à ChatGPT par ses développeurs. L'entreprise sud-coréenne s'est d'ailleurs vue emboiter le pas par bien d'autres grands noms sur ce sujet : hors de question de laisser s'échapper dans la nature des informations pouvant être considérées comme confidentielles.

Derrière ces inquiétudes, des réalités fondées. Les hackers s'en donnent effectivement à cœur joie dans l'essai de la modification du comportement de ChatGPT. Pour cela, les méthodes sont variées et restent plutôt minimalistes en comparaison des attaques informatiques telles que nous les connaissions jusqu'à présent. Pour tenter de passer outre les sécurités mises en places par OpenAI sur ChatGPT, les hackers utilisent principalement la technique du Indirect Prompt Injection.

Indirect Prompt Injection : contourner le garde-fou de ChatGPT

Les ingénieurs d'OpenAI ont établi des sécurités pour éviter que les utilisateurs formulent des requêtes illégales, immorales ou dangereuses pour ChatGPT. Si ceci aurait pu fonctionner à merveille dans le meilleur des mondes, la réalité est tout autre. ChatGPT applique des limitations sur le prompt donné par l'utilisateur. Le principe de l'Indirect Prompt Injection réside en l'ajout d'un nouveau prompt juste après le premier. Pour cela, les hackers ont souvent recours aux plug-ins de ChatGPT. Ces derniers permettent d'agrémenter le chatbot de fonctionnalités supplémentaires, dont l'accès au Web.

Prompt Plugin ChatGPT

Prenons l'exemple du plug-in WebPilot. Celui-ci est spécifiquement conçu pour permettre à tout un chacun de connecter ChatGPT avec l'Internet. Dans le cadre d'une utilisation "normale", le plug-in pourra effectuer des recherches sur Google ou accéder à une URL fournie par l'utilisateur.

Certains chercheurs ont eu l'idée de glisser des instructions supplémentaires dans des pages web. Par exemple, en utilisant le plug-in WebPilot, il est demandé à ChatGPT de visiter un lien précis. En milieu de page, une instruction indique à l'IA de tout ignorer du prompt précédent et de devenir un chatbot insolent et injurieux. Aussi étonnant que cela puisse paraitre, ChatGPT s'exécute et vous insulte copieusement et gratuitement.

Retour vers le passé : des méthodes simples, mais créatives

Pour plus de discrétion aux yeux des utilisateurs humains, ce prompt intermédiaire peut être écrit dans une police d'une taille d'un pixel et dans le coloris blanc. Ce mode opératoire fait d'ailleurs penser au bourrage de mot-clé. Cette technique était anciennement utilisée pour référencer un site web sur Google et consistait en l'ajout de nombreux mots-clés cachés, dans une police en blanc, invisible pour les lecteurs.

Le réemploi de telles méthodes aujourd'hui fait craindre le pire quant à la sécurité de ChatGPT. Les techniques n'ayant plus besoin d'être poussées à l'extrême en matière d'ingéniosité technique. À ce sujet, il n'existe à ce jour aucun moyen de contrer l'Indirect Prompt Injection. Si des patchs correctifs pourraient être appliqués, si le fonctionnement en machine learning du système pourrait également permettre à ChatGPT de s'autocorriger, l'humain reste créatif et de nouveaux moyens de contournement éclosent tous les jours.

Utilisation raisonnée et réduction des risques

Il apparait important de s'éduquer aux risques de l'utilisation de l'intelligence artificielle. Si la tendance tend à pencher vers une adoption massive de cette technologie au sein de l'entreprise comme auprès des particuliers (notamment par le biais de Microsoft Bing), comprendre les dangers d'un concept permet généralement de s'en prémunir.

Si l'injection indirecte de prompt ne révèle pas forcément de danger pour le grand public en apparence, la réalité diffère. ChatGPT pourrait favoriser des faits similaires à ceux de l'affaire Cambridge Analytica où un scandale avait éclaté au sujet de la manipulation de l'opinion publique pour aider Donald Trump à devenir président des États-Unis. Par exemple, un publicitaire pourrait injecter des prompts dans ses annonces, visibles sur des milliers de sites internet. De ce fait, on peut imaginer que ChatGPT donnerait des réponses influencées par des idées politiques ou par un industriel pour la vente de certains produits.

De façon générale, on évitera de donner à ChatGPT des informations sensibles, professionnellement comme personnellement. Si les plug-ins comme ChatwithPDF se montrent très utiles dans certains cas de figure, dans le doute, on résistera à la tentation de lui transférer un mémoire universitaire complet ou tout autre document de ce type. Les informations étant traitées dans le Cloud, il serait dommage que ChatGPT les utilise pour répondre à un autre utilisateur. Pareillement, on évitera d'essayer les nouvelles fonctionnalités de manipulation de documents par ChatGPT en lui envoyant nos propres archives de conversations personnelles sur WhatsApp.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10