© fizkes / Shutterstock / Clubic
© fizkes / Shutterstock / Clubic

Microsoft a mis en place plusieurs barrières autour de son chatbot afin de limiter les réponses inappropriées, mais cela n'est pas sans conséquences.

ChatGPT reste la vraie dernière sensation du monde de la tech. Le modèle d'intelligence artificielle développé par la société OpenAI a bluffé son monde en quelques semaines grâce à la qualité de ses réponses, et les géants du Web tentent de suivre le mouvement.

Le nouveau Bing alimenté par ChatGPT ne s'est pas fait que des amis

Microsoft est l'acteur le plus avancé aujourd'hui. L'entreprise américaine a investi pas moins de 10 milliards de dollars dans OpenAI et a récemment présenté une nouvelle version de son moteur de recherche, Bing, intégrant l'assistant conversationnel ChatGPT.

L'outil, actuellement en bêta, a été mis dans les mains de millions d'utilisateurs, mais tout ne s'est pas passé comme prévu. Le chatbot s'est rapidement révélé ironique, agressif, voire insultant après quelques réponses. Les exemples du comportement parfois bizarre du nouveau Bing pleuvent sur le Web, et l'on ne compte plus les captures d'écran montrant le chatbot railler un utilisateur, prendre conscience de son état de machine ou juste répondre à côté de la plaque à une question pourtant simple.

Probablement contrariée par ce départ loupé, Microsoft a vite réagi en ajoutant quelques limites à son assistant, en fonction des différents retours des utilisateurs. Il n'est ainsi plus possible d'écrire plus de cinq questions ou requêtes par session, mais l'éditeur ne s'est pas arrêté à cette seule restriction.

Un chatbot plus aimable, mais plus limité

Selon plusieurs journalistes qui ont pu tester le chatbot ces dernières heures, Microsoft a également retiré la possibilité de créer des questionnaires. Après plusieurs demandes insistantes de la part des utilisateurs, Bing cesse de répondre et réclame tout simplement à changer de sujet. Circulez, il n'y plus rien à voir.

Interrogé par le site Windows Latest, Mikhail Parakhin, responsable en charge des services web chez Microsoft, indique que ce nouveau comportement semble être « un effet secondaire des réponses concises » qui n'était pas prévu par les équipes en charge de Bing. Ces dernières vont se pencher sur le sujet au cours des prochains jours pour analyser la situation et redonner à Bing la possibilité de créer des questionnaires.

Microsoft a par ailleurs travaillé à atténuer le caractère parfois éruptif qui a été constaté chez Bing. Si l'utilisateur conteste la réponse ou le raisonnement de l'assistant conversationnel, ce dernier interrompt désormais la conversation et lui explique être toujours en phase d'apprentissage. Un bon moyen d'éviter une confrontation, même si Bing y perd un peu de son intelligence et ressemble maintenant davantage à tous les autres assistants vocaux et chatbots qui l'ont précédé.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10