Dans la foulée de la tentative d'assassinat de Donald Trump, l'agent conversationnel Grok a multiplié la diffusion de fausses informations. Un revers, alors qu'Elon Musk fait la promotion de son modèle pour contrer les médias traditionnels.
Développé par xAI, Grok a été lancé en 2023 pour concurrencer les modèles comme ChatGPT. Sa particularité : il fait preuve d'humour et de sarcasme, ce qui lui permet de se différencier de la concurrence, assure Elon Musk. Accessible pour les abonnés premium à X.com, cette intelligence artificielle est promue par le milliardaire comme un moyen fiable de résumer les actualités et les fils de discussion.
Ce week-end, Grok a été confronté à l'un des événements les plus marquants de l'année : la tentative d'assassinat de Donald Trump lors d'un meeting à Butler, dans l'État de la Pennsylvanie. Un test majeur auquel le modèle a malheureusement échoué.
Grok tire ses informations de X.com… et c'est peut-être un problème
Par exemple, Grok a généré un titre erroné affirmant que la vice-présidente Kamala Harris avait été abattue. Il faisait très probablement référence à une confusion de Joe Biden la semaine dernière, lorsqu'il a confondu les noms de Kamala Harris et de Donald Trump… L'IA a ensuite nommé à tort le tireur présumé et l'a faussement désigné comme un membre de la mouvance antifa. Les autorités ont plus tard identifié un autre suspect, mais n'ont pas encore établi de motif pour son geste.
Le problème est que Grok tire les informations en temps réel des publications postées sur X.com. C'est sa force, estime Elon Musk. Problème, la modération mise en place sur la plateforme est pointée du doigt depuis l'arrivée de l'entrepreneur à sa tête. L'IA n'est sans doute pas en mesure de faire la distinction entre la désinformation, les tweets humoristiques et les faits avérés.
Encore plus farfelu, Grok a généré un titre ambigu suggérant qu'un acteur de Maman, j'ai encore raté l'avion avait été blessé par balle lors d'un rassemblement de Trump, sans préciser que l'acteur en question était le candidat républicain lui-même. Si vous vous souvenez bien, l'homme d'affaires a fait une apparition dans le film culte des années 90.
Les IA génératives hallucinent
Évidemment, de telles erreurs de la part d'une IA générative n'ont rien de surprenant. Cette technologie est encore loin d'être infaillible, et ses concepteurs peinent encore à résoudre ses proposions à l'hallucination. Il y a quelques mois, l'IA Gemini de Google a suscité de nombreuses critiques avoir après généré des images historiquement inexactes.
La mention « Grok peut faire des erreurs, vérifier ses résultats » apparaît d'ailleurs sous les résumés générés par l'intelligence artificielle. Malgré tout, l'utilisation d'une technologie sujette à de telles bévues dans un contexte journalistique a de quoi soulever quelques questions…
- Intégré à l'abonnement X sans surcoût
- Collecte des informations à jour depuis X
- Moins biaisé politiquement que sa concurrence
Source : The Wall Street Journal