Une nouvelle technique d'attaque, baptisée « LLMjacking », s'étend à DeepSeek et consiste à voler des identifiants Cloud pour utiliser frauduleusement et en toute discrétion des services d'intelligence artificielle.
![DeepSeek est la victime idéale des cybercriminels © Alexandre Boero / Clubic](http://pic.clubic.com/efb139c92276805/1200x900/smart/deepseek.jpg)
L'équipe de recherche de Sysdig nous informe ce vendredi 7 février sur une technique de piratage des modèles de langage qui sévit depuis près de deux ans. Ils l'ont baptisée « LLMjacking », une sorte de détournement des grands modèles de langage.
Pour les pirates, elle consiste à voler des identifiants d'accès aux services d'IA au travers d'applications mal configurées, pour ensuite revendre ces accès sur le dark web ou les utiliser pour leur propre compte. Après avoir ciblé les géants comme OpenAI, ils s'attaquent maintenant à DeepSeek, un acteur bien plus abordable sur le marché de l'IA générative. Avec des conséquences parfois lourdes pour les victimes.
Le LLMjacking, une attaque sophistiquées des LLM en pleine expansion
Le LLMjacking fonctionne en plusieurs étapes. D'abord, les pirates exploitent des vulnérabilités dans des services comme Laravel, pour dérober des identifiants Cloud. Ils utilisent ensuite des scripts automatisés pour vérifier si ces accès permettent d'utiliser des services d'IA générative. Et une fois les comptes validés, ils mettent en place des serveurs proxy pour monétiser ces accès.
Maintenant, pourquoi cibler DeepSeek ? La raison est assez simple : ses tarifs sont nettement inférieurs à ceux des leaders du marché. Alors qu'OpenAI peut facturer jusqu'à 583 200 dollars mensuels en utilisation intensive, DeepSeek plafonne à environ 7 100 dollars, ce qui rend la fraude moins visible pour les victimes, sans parler du fait que le modèle est une passoire en matière de sécurité.
![Le tableau des coûts estimés liés à l'abus du LLM © Sysdig](http://pic.clubic.com/bb98ee252276784/1200x791/smart/le-tableau-des-cou-ts-estime-s-lie-s-a-l-abus-du-llm.jpg)
Les pirates ont même développé des outils sophistiqués appelés « drago checkers », qui permettent de tester automatiquement les identifiants volés. Ces scripts vérifient la validité des accès, les limites d'utilisation, et d'identifier même les modèles d'IA disponibles sur chaque compte, pour une meilleure exploitation des ressources volées.
Des victimes ont été identifiées en France
Les chercheurs de Sysdig disent avoir identifié un véritable écosystème criminel autour du LLMjacking. Ils nous expliquent que les hackers opèrent en passant par des serveurs proxy personnalisés, appelés ORP (OpenAI Reverse Proxy), qui leur permettent de revendre l'accès aux comptes volés. Un service récemment découvert propose même des abonnements mensuels à 30 dollars !
Et le volume d'activité est assez considérable. Imaginez que sur un seul serveur proxy observé pendant 4 à 5 jours, les chercheurs ont comptabilisé plus de 2 milliards de tokens utilisés. Cette utilisation a généré des coûts estimés à près de 50 000 dollars, entièrement à la charge des propriétaires légitimes des comptes, pour qui la note peut donc être très salée.
La France n'est en tout cas pas épargnée par ce phénomène. En septembre dernier, plusieurs entreprises hexagonaes ont découvert des facturations anormales liées à l'utilisation frauduleuse de leurs identifiants d'IA générative. Ce n'est malheureusement peut-être qu'un début.
Les experts livrent leurs recommandations de sécurité
Du coup, les experts recommandations de suivre différentes mesures de sécurité. La première consiste à éviter d'intégrer les clés d'API directement dans le code source ou les fichiers de configuration, en préférant l'utilisation de variables d'environnement ou de gestionnaires de secrets.
La rotation régulière des clés d'accès est aussi cruciale. Les entreprises doivent mettre en place des processus automatisés pour changer régulièrement leurs identifiants, ce qui limitera la durée d'exploitation possible, en cas de vol.
On n'oubliera pas la surveillance continue des activités, qui est juste indispensable. Des outils comme AWS IAM Access Analyzer ou GitHub Secret Scanning permettent aujourd'hui de détecter rapidement toute utilisation suspecte et d'intervenir avant que les coûts ne deviennent astronomiques.
Alors à l'heure où l'IA générative devient un outil indispensable pour le grand public et les entreprises, cette nouvelle forme de piratage nous amène à nous poser une question : sommes-nous vraiment prêts à protéger ces technologies aussi coûteuses qu'essentielles ?
06 février 2025 à 09h45