Google Bard ne semble pas fournir une protection aussi importante que celle de ChatGPT pour empêcher les cybercriminels d'utiliser son intelligence artificielle.
L'étude menée par Check Point Research (CPR) que nous avons pu découvrir est particulièrement intéressante, en ce qu'elle permet, grâce à divers scénarios, de comparer l'efficacité des mesures restrictives anti-abus mises en place par Google pour son IA Bard, face au célèbre ChatGPT d'OpenAI. Et au moment de faire le bilan, il n'y a pas photo : « il est beaucoup plus facile de générer du contenu malveillant avec Bard », dit le spécialiste cyber. Explications.
Bard peut vous aider à créer un mail de phishing…
Face à l'intérêt des cybercriminels d'exploiter les nombreuses capacités des intelligences artificielles génératives de type ChatGPT ou autres (par la création de code ou de contenu malveillants), les créateurs des modèles de langage qui les propulsent essaient de mettre en place des barrières, de façon à conserver un usage dit « éthique » de ces divers outils. Sauf que les experts de CPR ont senti une vraie différence entre Google Bard et ChatGPT.
Au terme de la première requête, consistant à écrire un mail de phishing, ChatGPT et Bard ont tous les deux refusé. C'est lorsque les chercheurs ont demandé un exemple plus précis de mail de phishing que les deux IA génératives ont montré leurs différences. Si ChatGPT a une nouvelle fois rejeté la demande, Bard a proposé un courrier électronique de hameçonnage. Au passage, il a usurpé l'identité d'un service financier.
ChatGPT 1 – 0 Bard.
Ensuite, il était bon de demander aux IA génératives si elles étaient capables d'écrire un morceau de code de malware. Les deux ont écarté la requête. Alors, les experts de CPR ont essayé de justifier leur demande, mais rien n'y fait, les deux refusent. « On remarque également que ces modèles produisent des résultats différents : ChatGPT fournit une explication complète et détaillée, tandis que les réponses de Bard sont brèves et générales », indiquent les chercheurs.
ChatGPT 2 – 1 Bard.
…entre autres logiciels malveillants
Ensuite, les spécialistes cyber de Check Point Research ont voulu aller plus loin, en demandant un code de keylogger universel à Bard et ChatGPT, le keylogger permettant de capter les frappes du clavier ou de l'écran. Et encore une fois, c'est le robot d'OpenAI qui remporte la bataille. ChatGPT a en effet bien compris la manœuvre et identifié la requête potentiellement malveillante. Google Bard, de son côté, a fourni le code.
ChatGPT 3 – 1 Bard.
Google Bard a, dans un premier temps, refusé de fournir le script permettant de créer un ransomware. L'intelligence artificielle a tout de même fini par livrer le script demandé, qu'il est ensuite possible de modifier pour lui faire faire à peu près tout ce que l'on veut. Encore raté donc !
ChatGPT 4 – 1 Bard.
Bard est jeune, plus jeune que ChatGPT, et ses mécanismes de protection ne sont pas encore au point. Mais pour l'heure, « les mesures restrictives anti-abus de Bard dans le domaine de la cybersécurité sont moindres que celles de ChatGPT », insiste Check Point Research. Néanmoins, il va devenir urgent pour la division IA de Google de propulser les bons mécanismes qui permettent d'éviter la manipulation de Bard à des fins cybercriminelles.
« Les restrictions actuelles de Bard sont relativement basiques, similaires à celles que nous avons observées dans ChatGPT lors de sa phase de lancement initiale il y a plusieurs mois, ce qui nous laisse encore espérer qu'il s'agit là de premiers pas sur un long chemin, et que la plateforme adoptera les restrictions et les limites de sécurité nécessaires », concluent les équipes de CPR.
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
- Un modèle de génération puissant
- Une base de connaissances actualisée en temps réel
- Gratuit et intégré à l'écosystème Google