© Shutterstock / Clubic
© Shutterstock / Clubic

À peine intégré à Bing, ChatGPT se fait déjà malmener par quelques privilégiés qui ont obtenu l'accès à la fonctionnalité.

Dans un véritable raz-de-marée d'inscriptions seulement quelques jours après son déploiement, le tout jeune chatbot a ainsi été poussé dans ses derniers retranchements, jusqu'à tenir des propos incohérents et exposer ses erreurs.

À peine arrivé sur Bing, ChatGPT se fait bizuter

Une chose est certaine, Microsoft a réussi la semaine dernière à braquer le feu des projecteurs sur son navigateur Bing, dopé à l'IA ChatGPT. Les utilisateurs curieux ont répondu présent en grand nombre… pour le meilleur comme pour le pire.

Certains heureux élus se sont en effet amusés pour ainsi dire à « bizuter » le fraîchement arrivé chatbot dans Bing, qui a parfois littéralement déraillé. Plusieurs exemples de ce type ont été postés sur le subreddit consacré à Bing, comme cette conversation où l'IA entre dans une crise existentielle après avoir perdu le fil de la discussion.

Capture d'écran de © yaosio sur Reddit
Capture d'écran de © yaosio sur Reddit

Un autre grand classique lorsque l'on traite avec une IA : un utilisateur a demandé au chatbot de Bing s'il était conscient. La réponse n'est pas sans rappeler une réaction que l'on a déjà vue au moins une fois dans une œuvre de science-fiction mettant en scène des intelligences artificielles.

Capture d'écran de © Vlad sur Twitter

Les erreurs de la jeunesse

Outre un malin plaisir pris par certains utilisateurs à détraquer le tout récent chatbot de Bing, d'autres ont voulu mettre en exergue les erreurs qu'il est capable de générer. Pour prouver que la nouvelle IA de Bing est indigne de confiance, Dmitri Brereton a notamment posté sur son blog, cité en source ci-dessous, quelques exemples d'assez grossières erreurs.

Celle-ci semble pour l'heure manquer de cohérence dans les réponses qu'elle génère. Elle peut même retranscrire de manière erronée des informations pourtant marquées noir sur blanc sur des documents qu'elle a retrouvés pour répondre à une directive.

Un représentant de Microsoft s'est prononcé quant à ces erreurs de jeunesse : « Nous nous attendons à ce que le système fasse des erreurs durant sa période d'essai, et les retours sont d'une importance capitale pour nous aider à identifier ce qui ne fonctionne pas afin de rendre notre modèle meilleur. »

Le chatbot de Bing étant encore pour ainsi dire un « bébé », il se montre loin d'être une menace pour les moteurs de recherche dont nous avons l'habitude, contrairement à ce que l'on pourrait craindre.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
Microsoft Bing
  • L'intégration de ChatGPT
  • Filtres pour la recherche d'images
  • Filtres des actualités par sources

Sources : Reddit, DKB Blog