© Wikimedia Commons
© Wikimedia Commons

Le nouveau chatbot de Baidu, Ernie, a apparemment quelques trous dans sa mémoire phénoménale.

Baidu est le premier géant chinois à mettre au monde une IA qui puisse rivaliser avec ChatGPT. Baptisée Ernie, elle a été testée ces derniers jours par de nombreux utilisateurs, qui ont pu remarquer certaines défaillances dans la culture du chatbot.

Xi Jinping, le bel inconnu

L'IA est à peine arrivée au monde qu'elle a déjà été prise dans les conflits politiques. ChatGPT a ainsi déjà dû subir la « culture war » qui bat son plein aux États-Unis, où certains, à l'image d'Elon Musk, considèrent que l'intelligence artificielle serait bridée par des limites trop « woke ». Alors évidemment, quand Baidu a lancé Ernie dans le monde, on pouvait imaginer que le problème se reproduirait.

Mutatis mutandis, c'est ce qu'il s'est encore passé, avec les retours d'utilisateurs qui se sont multipliés après la mise à disposition publique d'Ernie jeudi dernier. En effet, si les résultats ont convaincu, avec une IA capable par exemple d'écrire des poèmes dans le style de l'époque Tang, ils ont aussi montré que l'intelligence artificielle ne répondait pas à tout.

Ainsi, aux questions portant sur Xi Jinping, ses qualités de leader ou ses contributions, la réponse type a été : « En tant que modèle linguistique de grande échelle, je n'ai pas appris à répondre à cette question. Vous pouvez me poser d'autres questions, je ferai de mon mieux pour vous aider à y répondre. »

Ernie a ses tabous

Si Xi Jinping a été le tabou le plus remarqué par les testeurs, d'autres sujets doivent rester dans l'ombre pour l'IA. Parmi ceux-ci, on trouve les manifestations de Tian'anmen en 1989, la question des Ouïgours, ou bien la pertinence d'une action militaire chinoise afin de reprendre Taïwan.

D'autres sujets extérieurs à la Chine sont semble-t-il en dehors des limites de l'acceptable pour l'IA. Tenter d'ouvrir une discussion à propos de Joe Biden ou de Donald Trump entraînera la mise sur pause d'Ernie, qui invitera le plus souvent à passer à autre chose. « Changeons de sujet et recommençons », se sont vu répondre plusieurs internautes.

Pour le moment, Baidu n'a pas communiqué sur la question, mais Ernie a affirmé, quand la question lui a été posée, prendre en compte « les lois et les standards moraux pertinents » pour situer la limite d'une discussion acceptable.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Reuters