ChatGPT a, comme tout le monde, des périodes de flemmite © Meir Chaimowitz / Shutterstock
ChatGPT a, comme tout le monde, des périodes de flemmite © Meir Chaimowitz / Shutterstock

OpenAI a annoncé avoir corrigé le problème de flemme de son produit phare, ChatGPT.

Dans un post sur son blog daté de jeudi dernier, OpenAI a annoncé plusieurs mises à jour importantes sur ses produits. On y trouve ainsi une baisse significative du prix de certains d'entre eux, afin d'éviter que les utilisateurs payants ne s'intéressent de trop près aux modèles développés par la concurrence. Mais surtout, la société annonce avoir corrigé cet étonnant bug qui rendait ChatGPT plus paresseux qu'il ne l'était dans le passé.

ChatGPT a-t-il appris la flemme des développeurs qui l'ont entraîné ?

Parmi les nombreuses mises à jour mineures annoncées dans le post sur le blog de l'entreprise, un seul petit paragraphe mentionne explicitement le problème de flemme de ChatGPT, qui avait été constaté depuis début décembre au moins. Et si la société d'intelligence artificielle explique avoir corrigé, ou du moins amoindri le problème, aucune information quant à son origine n'est donnée : « ce modèle réalise des tâches telles que la rédaction de code de manière plus efficace, et a pour objectif de réduire les cas de "fainéantise", pour lesquels le modèle ne remplit pas une tâche ».

Dès que le phénomène avait été constaté, l'une des hypothèses avancées (par des personnes externes à OpenAI) pour expliquer le problème était que le modèle avait également appris ce comportement des humains qui l'avaient entraîné. Ce qui aurait expliqué que c'est justement alors que les vacances de fin d'année démarraient que le phénomène avait commencé à se manifester. Le post de blog annonce également avoir apporté des « améliorations variées » au modèle, sans juger nécessaire d'en dire plus.

Des améliorations sont à prévoir © Shutterstock
Des améliorations sont à prévoir © Shutterstock

Des prix qui baissent considérablement

L'on n'en saura pas plus, donc, sur l'origine de ce problème, et la formulation même d'OpenAI laisse à penser qu'il n'est pas forcément définitivement réglé. En revanche, la société a annoncé des baisses de prix drastiques : l'utilisation de l'API de GPT3,5 Turbo, qui est de loin le modèle le plus utilisé, coûtera désormais deux fois moins cher par requête. Ce modèle est déjà largement utilisé pour d'innombrables applications conversationnelles, ou pour l'analyse de texte, se garantissant ainsi une position plus dominante encore dans le domaine.

Car à mesure que les modèles open source ou ceux développés par les concurrents se rapprochent de GPT, OpenAI a tout intérêt à s'assurer que ses clients ne s'intéressent pas trop à leur développement.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : TechCrunch, OpenAI