ChatGPT s'inspire peut-être trop des humains... © Daniel Chetroni / Shutterstock
ChatGPT s'inspire peut-être trop des humains... © Daniel Chetroni / Shutterstock

Depuis le mois de novembre, plusieurs utilisateurs de ChatGPT ont constaté que l'intelligence artificielle (IA) était devenue plus fainéante et rechignait à effectuer certaines tâches. Si pour l'heure, aucun motif n'a été trouvé pour expliquer ce phénomène, une théorie surprenante commence à émerger.

OpenAI est également au courant de la situation. « Nous avons entendu tous vos commentaires sur le fait que GPT-4 devient de plus en plus paresseux ! Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger », a écrit la société dans une publication postée sur X.com. Certains amateurs d'IA se sont également penchés sur la question. L'une de leurs hypothèses, baptisée « pause hivernale », fascine la toile.

ChatGPT, en vacances pour Noël ?

Ainsi, le modèle reproduirait la pause hivernale chez les humains ; autrement dit, les vacances des fêtes de fin d'année. « Et s'il apprenait, grâce à ses données de formation, que les gens ralentissent généralement leurs activités en décembre et reportent leurs projets plus importants au début de l'année, et que c'était pour cette raison qu'il était plus paresseux ces derniers temps ? », s'est ainsi interrogé un utilisateur de X.com.

Cette idée a d'autant plus suscité des interrogations que les prompts indiquent la date à ChatGPT lors des requêtes. En outre, les modèles de langage étendus comme GPT-4, qui alimentent la version payante du chatbot, réagissent aux encouragements humains.

Dans cette optique, un développeur Rob Lynch a testé GPT-4 Turbo via l'API, et a trouvé des complétions plus courtes lorsque le modèle était alimenté avec une date de décembre (4 086 caractères) qu'avec une date fixée en mai (4 298 caractères). Des résultats statistiquement significatifs, selon lui. Toutefois, un chercheur en intelligence artificielle n'a pas été en mesure de reproduire les résultats avec une signification statistique.

GPT-4 réagit aux encouragements humains. © Shutterstock.com
GPT-4 réagit aux encouragements humains. © Shutterstock.com

Il ne s'agit que d'une hypothèse, mais…

Bien sûr, cette théorie est à prendre avec des pincettes, puisqu'elle n'a pas été prouvée scientifiquement. Mais elle n'a pas été définitivement exclue pour autant, ce qui témoigne encore de la jeunesse de la technologie et des méconnaissances à son sujet. De nombreux éléments sur les modèles de langage restent encore incompris, à l'instar de leur propension à halluciner dans certains cas d'usage.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Ars Technica