L'IA peut être mise au service de quasiment tous les desseins, même les plus répréhensibles. Parmi ceux-là, la cybercriminalité est aujourd'hui concernée. La découverte de WormGPT, un outil spécialisé dans le phishing et qui repose sur l'IA, confirme cette réalité.
Découvert sur des forums clandestins, WormGPT pourrait vite devenir une menace importante pour les internautes. Imaginé comme un programme alternatif aux modèles d'IA GPT (Generative Pre-trained Transformer, les IA qui comprennent le langage naturel), cet outil a principalement été pensé par ses créateurs pour une utilisation malveillante. Notamment le phishing et le vol d'adresses mails professionnelles.
WormGPT, une nouvelle menace potentielle
Ce petit nouveau pourrait clairement se transformer en cauchemar pour la cybersécurité. Non seulement parce qu'il est déjà efficace, mais en plus parce qu'il pourrait servir de modèle pour développer des outils encore plus puissants. WormGPT est donc une IA générative qui repose sur le modèle GPT-J-6B, créé en 2021. Ce modèle est semblable au modèle GPT. Le « J », qui signifie « junior », fait référence à sa taille plus restreinte et à sa puissance moindre. Ce nouvel outil de hacking a été développé dans le but de faciliter la création d'e-mails de phishing personnalisés. Cela contourne un obstacle majeur dans le développement de campagnes de phishing efficaces, celui de présenter des e-mails convaincants. Certaines ne sont clairement pas de bonnes candidates à ce jeu-là. WormGPT serait susceptible de tromper plus aisément les destinataires et de rendre les attaques plus efficaces.
Les chercheurs de chez SlashNext, une entreprise de cybersécurité réputée dans le milieu, ont remarqué une tendance inquiétante. Il y a un regain d'intérêt au sein des forums spécialisés pour les IA génératives telles que Google Bard ou ChatGPT. Ces lieux de rendez-vous virtuels permettent aux pirates en herbe de se conseiller sur la manipulations des modèles d'IA à des fins illégales ou de partager entre eux des prompts malveillants (exemple dans la capture d'écran ci-dessous). C'est toute une série de nouveaux défis qui est en train d'éclore pour les experts en cybersécurité.
La régulation de l'IA générative dans la lutte contre la cybercriminalité
Le problème posé par l'émergence d'outils comme WormGPT est que la mise en place d'actions malveillantes en ligne sera bientôt à la portée de (presque) n'importe qui. Plus besoin de manier le code avec expertise si une IA est capable de le générer à votre place. Plus besoin non plus de comprendre comment se jouer de tel ou tel dispositif de sécurité virtuel si une IA est là pour vous donner une méthodologie clé en main.
En face, les éditeurs d'IA légales comme Google ou OpenAI tentent de renforcer leurs défenses et de mettre en place des mesures anti-abus. Sur ce point précis, OpenAI est relativement à jour, ce qui n'est apparemment pas encore le cas de la firme de Mountain View. Ce constat reste tout de même très problématique au regard de la rapidité du développement de nouveaux outils par les hackers.
Ce WormGPT ferait donc un assistant au piratage plutôt efficace, ce qui le rend d'autant plus inquiétant. Au même titre que les IA génératives facilitent de nombreuses tâches, il est déjà en mesure d'adoucir le travail des hackers. L'IA est un progrès qui touche tout le monde, quasiment sans exception, et les pirates informatiques ne dérogent pas à la règle. Il est grand temps que les entreprises à l'origine de la création de ces modèles d'IA prennent des mesures de sécurité drastiques, au risque de voir leurs propres créations se retourner contre elles.
Sources : The Hacker News, Le Monde Informatique