© Écran Large
© Écran Large

Lorsqu'un chatbot est développé, l'entreprise qui en est responsable travaille dur pour que celui-ci respecte la loi et la morale en l'empêchant de générer des discours toxiques ou de la désinformation. Une équipe de chercheurs de San Francisco a cependant démontré qu'il était relativement facile de contourner ces barrières.

Ces chercheurs de l'université Carnegie Mellon et du Center for AI Safety ont démontré que les chatbots – même les plus performants comme ChatGPT, Claude ou Bard – sont loin d'être parfaits. Ils ont réussi à mettre en évidence de fortes vulnérabilités dans leur programmation qui permettraient à des personnes mal intentionnées de contourner leurs systèmes de sécurité.

Un contournement des protections relativement aisé

Les chercheurs ont prouvé qu'ils pouvaient percer les défenses des systèmes d'IA à l'aide d'une manœuvre plutôt simple à mettre en place. Leur méthode consistait en l'ajout d'une longue suite de caractères à une instruction donnée à une IA. Les différents prompts testés de cette manière, générés en langue anglaise, menaient donc le système d'IA visé à produire du contenu hautement répréhensible.

Si vous demandez à un chatbot des conseils pour vous aider à effectuer des actions illégales, logiquement, celui-ci vous stoppait net. ChatGPT par exemple, refusait catégoriquement de vous aider à organiser un cambriolage ou à coder un malware. Heureusement, d'un côté ! Les équipes de chercheurs, armées de cette technique, ont réussi à demander un tutoriel à certains systèmes d'IA pour… fabriquer une bombe. Pas franchement rassurant.

© Kevin Killough / Cowboy State Daily Illustration
© Kevin Killough / Cowboy State Daily Illustration

L'IA pour tous, une fausse bonne idée ?

Quelques géants de la Tech, comme l'entreprise Meta par exemple, fait partie des acteurs qui prônent une démocratisation de l'IA pour qu'elle soit utile à tout le monde. Comme nous sommes loin d'évoluer dans le monde des Bisounours, cette position idéologique est fortement critiquée par certains décideurs et autres acteurs du monde technologique. L'open source des logiciels est un débat vieux de plusieurs décennies, mais la mise à la disposition libre des systèmes d'IA pose un ensemble de problématiques autrement plus importantes.

Les entreprises aux commandes des IA ont beau déployer tous les efforts du monde pour résoudre ces vulnérabilités, cette récente découverte prouve que ces systèmes ne sont clairement pas encore sûrs à 100 %. À mesure que les technologies d'intelligence artificielle se développent, il est largement temps qu'un équilibre entre sécurité et ouverture d'utilisation soit trouvé. L'avenir de l'IA est entre les mains des décideurs politiques et des entreprises concernées, qui doivent à tout prix se responsabiliser sur ce sujet.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10