L'application ChatGPT affichée sur un smartphone, avec derrière une personne qui regarde fixement © Patrickx007 / Shutterstock
L'application ChatGPT affichée sur un smartphone, avec derrière une personne qui regarde fixement © Patrickx007 / Shutterstock

ChatGPT serait utilisé par de très nombreuses équipes de hackers à travers le monde. Le chatbot permettrait en effet de leur rendre la vie beaucoup plus facile dans l'élaboration de leurs différentes attaques.

Il n'est pas rare, depuis que le chatbot d'OpenAI a explosé aux yeux du monde, d'entendre parler de l'utilisation de l'IA à des fins illicites. Mais c'est la première fois que les deux partenaires Microsoft et OpenAI font état d'une utilisation aussi massive qu'inquiétante des capacités de l'intelligence artificielle. Car les acteurs de la cybercriminalité faisant usage de cette technologie sont parmi les plus importants au monde.

Tous les hackers aiment ChatGPT

Oubliez les petits hackers utilisant ChatGPT pour mener leurs arnaques. Si l'on en croit les informations que viennent de dévoiler Microsoft et OpenAI, ce sont les plus importants groupes cybercriminels, dont un certain nombre sont affiliés à des États, qui usent dorénavant des modèles de langages de l'IA pour peaufiner leurs attaques.

« Les groupes de cybercriminels, les acteurs étatiques malveillants et d'autres adversaires explorent et testent différentes technologies d'IA dès leur apparition, afin de comprendre leur valeur potentielle pour leurs opérations et les contrôles de sécurité qu'ils pourraient avoir à contourner » est-il ainsi indiqué sur le blog de Microsoft.

Au menu, des entités telles que Strontium, lié aux services de renseignements russes, qui utiliserait la technologie afin de mieux « comprendre les protocoles de communication par satellite, les technologies d'imagerie radar et les paramètres techniques spécifiques. » Le groupe de hackers nord-coréen Thallium, le groupe iranien Curium ainsi que des groupes chinois sont aussi cités.

Les hackers s'en donnent à coeur joie © Maksim Shmeljov / Shutterstock
Les hackers s'en donnent à coeur joie © Maksim Shmeljov / Shutterstock

Microsoft et OpenAI ont réagi

Les modèles de langages seraient utilisés pour de nombreuses tâches telles que coder, développer des campagnes de phishing, retrouver des vulnérabilités déjà publiquement reportées, améliorer leurs propres outils ou bien mettre en place des techniques d'ingénierie sociale.

Même si pour le moment, aucune attaque majeure n'a pu être lancée grâce à l'IA, les deux entreprises ont souhaité agir de manière préventive. Elles ont ainsi mis fin à tous les comptes et aux actifs liés à ces groupes présents sur les plateformes de Microsoft et d'OpenAI.

Les partenaires craignent qu'à l'avenir, l'utilisation de l'IA dans la cybercriminalité soit plus agressive, notamment à travers le clonage de voix, qui s'avère particulièrement simple à effectuer. « Même quelque chose d'aussi anodin que le message d'accueil de votre boîte vocale peut être utilisé pour obtenir un échantillon suffisant » explique ainsi Microsoft. La prochaine ère de l'internet deviendra-t-elle celle de la méfiance ?

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : The Verge