Markus Mainka / Shutterstock
Markus Mainka / Shutterstock

OpenAI, entreprise qui a mis au point ChatGPT, vient d'annoncer la suppression de son outil permettant de déterminer si un texte a été rédigé par une intelligence artificielle (IA) ou un humain.

Baptisé AI Classifier, celui-ci a été mis au point par l'entreprise dans le but d'identifier l'usage de l'IA pour des campagnes automatisées de désinformation. OpenAI expliquait également qu'il serait utile pour « lutter contre la malhonnêteté universitaire ».

Un outil incapable de faire ce pour quoi il a été conçu

La firme a admis dès le départ que son dispositif n'était pas très efficace pour détecter les textes générés par l'IA. Elle a notamment mis en garde contre les faux positifs, c'est-à-dire des textes écrits par des humains et étiquetés comme étant générés par l'IA, en affirmant néanmoins que sa performance s'améliorerait avec davantage de données.

AI Classifier est finalement un échec, la société ayant décidé de le rendre indisponible à compter du 20 juillet 2023 « en raison de son faible taux de précision ».

« Nous nous efforçons d'intégrer les commentaires et recherchons actuellement des techniques de provenance plus efficaces pour le texte, et nous nous sommes engagés à développer et à déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l'IA », assure-t-elle, sans donner d'informations supplémentaires pour le moment.

© Mopic / Shutterstock
© Mopic / Shutterstock

Une décision qui soulève des questions

De nombreux dangers sont attribués aux IA génératives, et l'impossibilité de distinguer si leur contenu provient d'un modèle ou d'un humain en est un. Très vite après le lancement de ChatGPT, les écoles de New York ont d'ailleurs interdit son utilisation. Même son de cloche en France, avec Sciences Po qui a pris une décision similaire.

Alors qu'aucun cadre légal ne réglemente l'usage de l'IA pour le moment, ce sont les entreprises elles-mêmes qui fixent leurs propres règles et développent leurs outils de protection. Le fait que la firme à l'origine du boom de l'IA générative échoue dans cette tâche soulève quelques questions, d'autant plus lorsque l'on sait que les modèles de langage ont tendance à « halluciner » sans que les chercheurs n'arrivent à expliquer pourquoi.

Bonne nouvelle tout de même. Plusieurs entreprises spécialisées dans l'IA se sont récemment engagées à mettre en place un marquage en filigrane, qui permettrait de mieux distinguer les productions d'origine humaine de celles qui ont été mises au monde par les IA génératives.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Sources : OpenAI, The Verge