Parmi tous les risques potentiels posés par l'intelligence artificielle, celui-ci n'était pourtant pas le plus évident.
Et pourtant, certains hackers n'ont pas attendu les prévisions apocalyptiques de certains pour déjà donner des raisons concrètes de s'en méfier. C'est ainsi que, ces derniers jours, des messages sponsorisés sur les réseaux sociaux se faisant passer pour Google Bard renvoyaient ceux qui cliquaient dessus vers des sites infestés de malwares.
Se faire passer pour une entité digne de confiance, pas vraiment une nouveauté pour les acteurs malveillants
Ce sont des chercheurs en cybersécurité travaillant pour ESET qui ont d'abord relevé l'information. Ils ont initialement été intrigués par des annonces sponsorisées sur certains réseaux sociaux et qui se faisaient passer pour Bard. Problème : les fautes de frappe et les erreurs grammaticales que l'on pouvait y trouver ne ressemblent clairement pas aux standards de Google en la matière, et ce ne sont pas les nombreux commentaires sous la publicité, tous postés en même temps et unanimement élogieux qui étaient de nature à les rassurer. Ils ont donc décidé d'enquêter un peu plus.
Cliquer sur ces publicités redirige les victimes vers le site internet d'une entreprise basée à Dublin, et qui surtout ne dispose pas d'un nom de domaine de Google. Sans avoir pour l'instant pu le démontrer, les chercheurs considèrent que le risque de donner accès à ses données personnelles aux gérants de ces sites est élevé si on se rend sur une de ces pages depuis un navigateur. Ce qui est en revanche confirmé, c'est que ces publicités incluent un bouton « download » qui télécharge un dossier ressemblant trait pour trait à trait à un document google drive. Mais il s'agit en réalité d'un malware appelé GoogleAIUpdate.rar.
Tout le monde à bord du train de l'IA, même les hackers
Thomas Uhlemann, l'un des chercheurs en question, a remarqué qu'il s'agissait d'une des plus grandes cyberattaques de la sorte qu'il ait vu. Ce n'est finalement pas si étonnant : rares sont les entreprises qui ne tentent pas aujourd'hui d'inclure de l'intelligence artificielle dans leurs produits, d'une manière ou d'une autre, même si cela ne semble pas toujours avoir de sens à première vue, pour tenter de rester dans le coup.
Alors forcément, ceux qui n'ont pas les moyens de développer leur propre large language model, ni l'honnêteté de le reconnaître, trouvent des portes dérobées pour surfer sur le sujet. Parfois uniquement pour un coup de publicité gratuit et parfois, donc, pour une cyberattaque.
- Un modèle de génération puissant
- Une base de connaissances actualisée en temps réel
- Gratuit et intégré à l'écosystème Google
Sources : Digital Trends, Welivesecurity