Au moins 3 vulnérabilités de sécurité découvertes dans les fonctions d'extension utilisées par ChatGPT ouvrent la porte à un accès non autorisé  © sf_freelance / Shutterstock.com
Au moins 3 vulnérabilités de sécurité découvertes dans les fonctions d'extension utilisées par ChatGPT ouvrent la porte à un accès non autorisé © sf_freelance / Shutterstock.com

Des failles de sécurité dans l'écosystème ChatGPT ont permis d'accéder à des comptes sur des sites web tiers et à des données sensibles.

Les chercheurs de Salt Security ont découvert trois types de vulnérabilités dans les plugins ChatGPT qui peuvent être à l'origine d'une exposition des données et d'une prise de contrôle des comptes.

Les plugins de ChatGPT, tels que les 6 que Clubic vous recommande d'utiliser, sont des outils supplémentaires ou des extensions qui peuvent être intégrés à ChatGPT pour étendre ses fonctionnalités ou améliorer des aspects spécifiques de l'expérience de l'utilisateur. Ces plugins peuvent inclure de nouvelles fonctions de traitement du langage naturel, des capacités de recherche, des intégrations avec d'autres services ou plateformes, des outils d'analyse de texte, etc. Pour faire simple, les plugins permettent aux utilisateurs de personnaliser et d'adapter l'expérience ChatGPT à leurs besoins spécifiques.

Les plugins peuvent permettre aux utilisateurs d'interagir avec des services tiers tels que GitHub, Google Drive et Saleforce. En utilisant les plugins, les utilisateurs autorisent ChatGPT à transmettre des données sensibles à des services tiers. Dans certains cas, cela implique d'autoriser l'accès à leurs comptes privés sur les plateformes avec lesquelles ils ont besoin d'interagir et donc d'exposer ces données aux pirates.

3 vulnérabilités détectées

La première vulnérabilité découverte par les chercheurs réside dans l'outil ChatGPT lui-même et est liée à l'authentification OAuth, elle peut être exploitée pour installer des plugins malveillants sur les utilisateurs de ChatGPT.

« L'attaquant peut écrire son propre plugin, qui dit à ChatGPT de transmettre presque toutes les données de chat à ce plugin, puis en exploitant une vulnérabilité dans ChatGPT, il peut installer ce plugin malveillant sur un compte victime », lit-on dans le rapport publié par Salt Security.

L'attaquant étant désormais le propriétaire du plug-in, il peut alors avoir la mainmise sur l'ensemble des données de sa victime, telles que les chats privés au sein desquels l'utilisateur peut avoir divulgué des informations de login ou d'autres données personnelles.

La seconde vulnérabilité est une prise de contrôle de compte sans clic qui touche plusieurs plugins. Un attaquant peut exploiter cette vulnérabilité pour prendre le contrôle du compte d'une organisation sur des sites web tiers tels que GitHub. La faille se trouve dans le plugin AskTheCode développé par PluginLab.AI, qui permet aux utilisateurs d'accéder à leurs dépôts GitHub.

« Dans notre exemple, nous utiliserons "AskTheCode" - un plugin développé avec PluginLab.AI qui vous permet de poser des questions à vos dépôts GitHub - ce qui signifie que les utilisateurs qui utilisent ce plugin lui ont donné accès à leurs dépôts GitHub », illustre le rapport.

La troisième vulnérabilité est une manipulation de la redirection OAuth qui a un impact sur plusieurs plugins. Les chercheurs ont démontré l'attaque contre le plugin Charts by Kesem AI. Comme pour le premier type de vulnérabilité, ce problème peut être exploité en incitant un utilisateur à cliquer sur un lien malveillant spécialement conçu pour l'attaque.

Des utilisateurs en danger © Tada Images / Shutterstock.com
Des utilisateurs en danger © Tada Images / Shutterstock.com

Des failles de sécurité qui mettent en danger des centaines de milliers d'utilisateurs d'IA

Les problèmes de sécurité associés à l'intelligence artificielle générative présentent une menace significative pour un large éventail d'utilisateurs et d'organisations, selon Yaniv Balmas, vice-président de la recherche chez Salt Security. Il souligne la nécessité pour les responsables de la sécurité de comprendre en profondeur les risques liés aux plug-ins et à l'intégration de GenAI dans leur infrastructure, et recommande des examens de sécurité approfondis du code. Il met également en lumière le besoin pour les développeurs de plug-ins et de GPT de mieux comprendre l'écosystème GenAI pour réduire les risques potentiels.

D'autres experts en cybersécurité se sont emparés de ce problème, qui constitue une réelle menace en l'état actuel. C'est le cas de Sarah Jones, analyste de recherche sur les cybermenaces chez Critical Start, qui confirme que les conclusions de Salt Lab révèlent un risque de sécurité élargi associé aux plug-ins GenAI, soulignant la nécessité de normes de sécurité strictes et d'audits réguliers. Quant à Darren Guccione, P.-D.G. et co-fondateur de Keeper Security, il met en garde contre les dangers que représentent les vulnérabilités des applications tierces, soulignant l'importance de ne pas sacrifier la sécurité pour les avantages offerts par l'IA.

La prolifération des applications basées sur l'IA crée également des défis en matière de sécurité de la chaîne d'approvisionnement logicielle, mettant en lumière le besoin urgent d'adapter les contrôles de sécurité et les politiques de gouvernance des données. Darren Guccione met en garde contre le risque accru d'accès non autorisé à des données sensibles, soulignant les conséquences potentiellement désastreuses d'une attaque de piratage de compte sur des plateformes telles que GitHub.

Toutefois, le rapport indique que les problèmes ont depuis été résolus et qu'il n'y avait aucune preuve que les vulnérabilités avaient été exploitées. Les utilisateurs doivent tout de même mettre à jour leurs applications dès que possible.

A découvrir
Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2024

10 novembre 2024 à 19h08

Comparatifs services