ChatGPT est devenu un outil extrêmement utilisé par les élèves pour effectuer leurs devoirs. Mais si l'IA peut bien aider à la triche, elle est tout de même encore loin d'être parfaite !
Quand le chatbot d'OpenAI est devenu, dès les premiers mois de l'année 2023, un outil à la popularité incroyable dans le monde, nombreuses ont été les personnes à s'inquiéter des potentiels dommages que pouvait poser l'IA. Parmi les dangers listés, celui que les élèves fassent dorénavant faire leurs devoirs aux IA, et n'apprennent ainsi plus rien chez eux. Mais si c'est malheureusement désormais un peu trop souvent le cas, l'intelligence artificielle peut tout de même être repérée grâce à un certain nombre de défauts !
1 étudiant sur 2 utilise ChatGPT
L'IA est maintenant un outil utilisé par de nombreux Français au quotidien. Et parmi eux, on retrouve bien évidemment les étudiants, qui bénéficient avec le chatbot d'une intelligence pouvant faire le travail à leur place.
55% des étudiants explique ainsi faire un usage plus ou moins régulier de ChatGPT, moins de deux ans après la mise sur le marché de l'IA générative. Un problème dont sont parfaitement conscients les professeurs. « Un professeur suspecte toujours, désormais, qu'il y a ChatGPT derrière un devoir maison » a ainsi indiqué un professeur d'Histoire-Géographie au journal Le Figaro.
ChatGPT, le chatbot à l'ancienne
Pourtant, même si le chatbot mâche un peu trop le travail des élèves, il est encore loin de pouvoir se faire passer pour un être humain, qui écrirait ses devoirs avec son propre style. L'IA a ainsi un certain nombre de biais, qu'on pourrait même appeler des « tics », qui la trahissent. Et le premier d'entre eux tient à son vocabulaire bien spécifique.
En effet, les entreprises qui entraînent un modèle de langage – destiné à alimenter une IA - ont besoin d'une quantité de données extrêmement élevée. Elles ont donc tendance à utiliser le plus possible les données libres de droits, qui sont souvent les textes les plus anciens. Un outil comme ChatGPT a ainsi plus tendance que la moyenne à utiliser des mots désuets, qui peuvent détonner dans les copies d'élèves s'exprimant très différemment à l'oral.
Un style lourd, et trop régulier
Mais plus encore qu'un lexique d'Académicien du XVIIIe siècle, c'est le style très particulier des textes de ChatGPT qui le trahit. Au premier abord, les phrases semblent bien connectées entre elles, tout du moins logiquement. Mais au-delà d'un paragraphe, la manière de s'exprimer de l'IA ayant tendance à être constamment la même, c'est la lourdeur de la prose qui saute alors aux yeux.
Pour le meilleur, et souvent pour le pire, ChatGPT a en effet du mal à allonger les phrases, avec de multiples virgules, voire des points virgules. L'IA est incapable de changer de rythme à la manière d'un être humain qui, en même temps qu'il restitue une idée, le fait en l'exprimant à sa façon, de manière plus ou moins adroite, avec une maîtrise plus ou moindre grande de la langue, et donc à travers des transformations de rythme qui illustrent les hauts et les bas de la personne qui réfléchit. En étant d'une régularité d'horloge dans son écriture, ChatGPT trahit ses origines artificielles.
L'élève ne sait pas, l'IA invente
Enfin, et c'est sûrement ce qui a été le plus documenté sur les problèmes de l'IA, c'est qu'elle peut tout simplement affabuler ! « Quand ChatGPT ne sait pas, il invente, ou bien parle d'autre chose. J'avais fait un test sur les Orientales de Victor Hugo, ChatGPT m'avait répondu des choses qui avaient trait au romantisme, mais de toute évidence ne connaissait pas ce recueil » raconte le même professeur.
Or, quand un élève lui ne sait pas, il a beaucoup plus tendance à tout bonnement sécher, et à passer outre la question, plutôt que de commencer à inventer, de manière quelques fois très sophistiquée, une réponse qui est pourtant totalement fausse. Et ça sera là peut-être une des meilleures manières de repérer le travail d'une IA : avoir des difficultés à simplement dire « je ne sais pas ».
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
Source : Le Figaro