Des groupes de hackers étatiques ont tenté de manipuler l’IA de Google pour affiner leurs cyberattaques. Si Gemini a résisté, la menace grandit avec des modèles moins sécurisés qui prolifèrent sur le marché.
Les intelligences artificielles génératives ne cessent de faire parler d’elles, et pas toujours pour de bonnes raisons. Le dernier rapport du Google Threat Intelligence Group vient confirmer ce que beaucoup redoutaient : ces technologies attisent l’intérêt des cybercriminels. D’après les analyses de ses équipes de sécurité, des groupes de hackers soutenus par des États ont tenté d’exploiter son IA Gemini pour peaufiner leurs opérations. Si ces pirates n’ont pas encore réussi à contourner les protections de l’outil ni à concevoir d’attaques inédites, ils l’utilisent déjà pour automatiser des tâches et accélérer leurs campagnes. Un constat préoccupant, surtout face à l’émergence de modèles concurrents, moins sécurisés et plus faciles à détourner.
Un outil de productivité, pas une arme révolutionnaire
C’est dans un article de blog officiel que Google a partagé ses observations. L’entreprise indique avoir détecté des traces d’utilisation de Gemini par des groupes de pirates liés à plus de 20 pays, parmi lesquels l’Iran et la Chine, qui dominent largement le classement, suivis par la Corée du Nord et la Russie.
Concrètement, ces acteurs se servent de l’IA pour des tâches bien connues : assistance au codage, recherche de vulnérabilités, collecte d’informations sur des cibles ou encore génération de contenu. Objectif : automatiser des tâches et accélérer des processus existants, sans pour autant révolutionner les méthodes existantes.
Dans le détail, il semblerait que chaque groupe étatique ait déjà pris de petites habitudes pour tirer profit de l’IA à sa façon. À titre d’exemple, les hackers iraniens s’appuient sur Gemini pour préparer des campagnes de phishing, mener des recherches sur des organisations de défense et affiner leurs opérations d’influence. Les acteurs chinois, eux, l’utilisent pour analyser des outils de cybersécurité, identifier des failles dans des infrastructures critiques et explorer des techniques d’accès aux systèmes.
En Corée du Nord, Gemini sert autant à des tâches techniques qu’à la rédaction de lettres de motivation et de propositions d’emploi, dans le cadre de l’infiltration de travailleurs clandestins dans des entreprises occidentales. La Russie, de son côté, fait un usage plus limité de l’IA, principalement pour réécrire des malwares dans d'autres langages et y ajouter des fonctionnalités de chiffrement.
Si ces usages confirment l’adoption croissante de l’IA par les cybercriminels, Google a tenu à préciser que les tentatives de contournement des protections de Gemini avaient toutes échoué. Certains groupes ont tenté d’utiliser des jailbreaks publics ou de reformuler leurs requêtes pour tromper les filtres de sécurité, sans succès. En réponse, Gemini a systématiquement fourni des réponses filtrées ou neutres, refusant de générer du code malveillant, d’expliquer des techniques de phishing avancées ou d’aider au développement de logiciels malveillants.
Des IA moins sécurisées, un risque grandissant
Bien que Gemini ait tenu bon, Google a profité de son rapport pour alerter sur un autre phénomène plus inquiétant : l’utilisation croissante de modèles d’IA génératives moins bien protégés. DeepSeek R1, récemment épinglé par Cisco pour sa vulnérabilité aux attaques malveillantes, en est un exemple frappant. Capable de générer du contenu dangereux avec des moyens limités, le chatbot illustre les risques associés à des solutions moins sécurisées, malgré l’attrait suscité par leur faible coût de développement
Le rapport souligne par ailleurs que l’IA ne se limite pas aux usages purement techniques. Certains groupes spécialisés dans la désinformation exploitent Gemini pour traduire et localiser du contenu, optimiser leur diffusion sur les réseaux sociaux ou adapter leurs messages à des publics spécifiques. Les acteurs iraniens, notamment, ont utilisé l’IA pour affiner leurs stratégies de communication et renforcer l’impact de leurs campagnes. La Chine et la Russie ont, elles aussi, eu recours à Gemini pour générer et manipuler du contenu, mais dans une moindre mesure.
Enfin, Google a également observé des tentatives d’abus visant directement ses propres produits. Des hackers ont ainsi tenté d’utiliser Gemini pour rechercher des techniques de phishing sur Gmail, coder des extensions malveillantes pour Chrome ou contourner les vérifications des comptes Google. Là encore, ces tentatives ont échoué face aux mécanismes de sécurité intégrés, mais témoignent de la persévérance des cybercriminels à trouver de nouveaux moyens de mener des attaques toujours plus efficaces et diversifiées.
Face à ces dérives, Mountain View ne compte pas rester les bras croisés. L’entreprise affirme renforcer en continu les protections de ses IA et partager ses découvertes avec la communauté de la cybersécurité. Mais au-delà des efforts internes, le rapport met en lumière un enjeu plus large : celui de l’écosystème de l’intelligence artificielle dans son ensemble. D'où la nécessité d’adopter un cadre réglementaire solide et collaboratif pour encadrer le développement de ces technologies, anticiper les menaces et garantir la sécurité des utilisateurs et utilisatrices.
Source : Google
28 janvier 2025 à 14h02