Pan sur le bec ! Un ingénieur a créé un fusil robotisé capable de tirer sur des cibles après avoir intégré ChatGPT d'OpenAI. Ce projet, qui utilise l'IA pour contrôler des armes, a conduit OpenAI à bannir l'inventeur en raison de la violation de ses politiques sur l'utilisation de son modèle à des fins militaires.

Quant ChatGPT ne sait pas ce qu'il fait et commande un fusil - © Markus Mainka / Shutterstock
Quant ChatGPT ne sait pas ce qu'il fait et commande un fusil - © Markus Mainka / Shutterstock

Sa vidéo se répand comme une traînée de poudre sur les réseaux sociaux. Et pour cause, l'ingénieur qui se fait appeler STS 3D a conçu un système robotisé dans lequel un fusil est dirigé par ChatGPT. Ce projet « innovant » permet au fusil de répondre à des commandes vocales pour viser et tirer sur des cibles.

OpenAI n'a pas tardé à dégainer en bannissant l'ingénieur de ses services pour violation de ses conditions d'utilisation, qui interdisent l'usage de son modèle pour la création d'armes.

L’ingénieur derrière le projet : STS 3D

Avec un pseudo qui sonne comme un nom de code, STS 3D, un ingénieur américain, est connu pour ses projets robotiques expérimentaux, souvent partagés sur ses réseaux sociaux. Parmi ses créations précédentes, on retrouve des bras robotisés et des dispositifs comme une chaise de bureau intelligente. Mais c’est son dernier projet qui a attiré une attention particulière : un fusil robotisé contrôlé par ChatGPT. Ce système repose sur une intégration entre l’API de ChatGPT et un fusil automatisé, qui permet à ce dernier de répondre à des commandes vocales et de tirer en fonction des instructions données. Par exemple, dans une démonstration que vous retrouverez sur son compte Instagram, l'ingénieur demande au fusil de réagir à une « attaque » venant de l'avant gauche et de l'avant droit. L'arme exécute la commande en pivotant et en tirant sur ces directions, démontrant l'efficacité de ce système en situation de combat simulé.

La démonstration, qui a été visionnée par des millions d'internautes, n'a pas manqué sa cible. Certains ont été impressionnés par la capacité de l'IA à contrôler des armes, tandis que d'autres ont souligné les risques éthiques et sécuritaires associés à une telle utilisation de la technologie. Quant à STS 3D, peut-être voulait-il simplement montrer les limites de l'utilisation « éthiques » de l'IA ?

Le fusil robotisé défend l'ingénieur qui lui a indiqué être attaqué et lui a ordonné de tirer selon certains prompts - Capture d'écran © STS 3D X.com
Le fusil robotisé défend l'ingénieur qui lui a indiqué être attaqué et lui a ordonné de tirer selon certains prompts - Capture d'écran © STS 3D X.com

La réaction d’OpenAI et ses implications éthiques

Toujours est-il qu'OpenAI a pris des mesures immédiates pour couper l'accès à ses services à STS 3D. « Nous avons identifié de manière proactive cette violation de nos politiques et avons informé le développeur de cesser cette activité avant de recevoir votre demande », peut-on lire dans le communiqué d'OpenAI que s'est procuré le site Futurism. « Les politiques d'utilisation d'OpenAI interdisent l'utilisation de nos services pour développer ou utiliser des armes, ou pour automatiser certains systèmes pouvant affecter la sécurité personnelle », est-il précisé plus loin.

En 2023, OpenAI avait déjà révisé ses politiques d'utilisation, supprimant certaines interdictions qui limitaient l'utilisation de son IA dans des activités à haut risque de dommages physiques, mais maintenant explicitement qu’aucun usage lié aux armes n'est autorisé.

Ce n’est pas la première fois que des technologies d'IA sont détournées pour des applications militaires. Par exemple, le Pentagone avait utilisé l'IA pour aider les soldats à cibler ses frappes au Moyen-Orient.

Les discussions éthiques autour de l’utilisation de l’IA dans des armes autonomes ne sont pas nouvelles. Les Nations Unies ont déjà exprimé leur inquiétude quant à l'utilisation de l'IA dans la guerre, et des experts soulignent le risque de créer des systèmes de combat incontrôlables.