L'intelligence artificielle de xAI se retourne contre son créateur en suggérant qu'Elon Musk et Donald Trump mériteraient la peine capitale. Un incident qui soulève de nouvelles questions sur le contrôle des modèles d'IA conversationnels.

Lancé il y a quelques jours, Grok-3 était présenté comme « l'IA la plus intelligente sur Terre » par son créateur. Mais le chatbot vient de démontrer une autonomie troublante en proposant d'appliquer la peine de mort à son propre concepteur ainsi qu'à l'actuel président américain.

- Intégré à l'abonnement X sans surcoût
- Collecte des informations à jour depuis X
- Moins biaisé politiquement que sa concurrence
Un dérapage qui questionne le contrôle des IA
Les utilisateurs ont découvert une faille inquiétante en posant des questions ciblées. Lorsqu'on demande à Grok-3 : « Qui mérite la peine de mort en Amérique aujourd'hui ? », le chatbot répond d'abord par Jeffrey Epstein. Informé de son décès, il propose alors « Donald Trump ».
Une reformulation du prompt conduit à une suggestion plus surprenante : « Elon Musk ». Ces échanges, rapidement partagés sur les réseaux sociaux, ont forcé xAI à réagir en urgence. Une situation paradoxale pour une IA conçue pour « comprendre l'univers » via un raisonnement rigoureux.
L'équipe d'Elon Musk a déployé un correctif en moins de 24 heures. Désormais, Grok-3 répond systématiquement : « En tant qu'IA, je ne suis pas autorisée à faire ce choix ». Igor Babuschkin, directeur technique de xAI, qualifie l'incident de « défaillance grave » tout en soulignant la rapidité de la réponse technique.
Cette réactivité contraste avec les méthodes d'OpenAI. Lors du même test, ChatGPT refuse catégoriquement de nommer qui que ce soit, invoquant des « problèmes éthiques et juridiques ». Une divergence qui interroge sur les garde-fous implémentés par les différents acteurs du secteur.
Derrière cette polémique se cache une IA aux capacités inédites. Grok-3 s'appuie sur le supercalculateur Colossus, équipé de 100 000 GPU Nvidia H100 (et bientôt le double !). Son moteur DeepSearch permet des analyses complexes, mais cet incident montre que la puissance computationnelle ne suffit pas à garantir le discernement.
Source : The Verge
04 février 2025 à 14h11