© Les Échos
© Les Échos

OpenAI, l'organisme derrière le populaire ChatGPT, a entrepris de développer un outil permettant de discrètement signer le contenu généré par l'IA. Un prototype serait d'ailleurs déjà fonctionnel.

Cette signature propre à l'intelligence artificielle ChatGPT pourrait permettre de détecter la triche à un examen ou du contenu malveillant crédible, mais qui génère encore des doutes.

Différencier l'humain de la machine, un enjeu majeur

Lancé en décembre 2022 par OpenAI, ChatGPT est loin d'être passé inaperçu. Capable de générer du texte à partir de nombreuses questions et d'adapter le tout instantanément, il a fait l'objet d'une attention toute particulière. On peut lui demander à peu près n'importe quoi, même d'écrire une dissertation avec un style donné ou de débusquer une erreur dans du code. L'outil reste néanmoins perfectible, et il faut prendre les résultats avec précaution.

Cependant, ChatGPT est suffisamment avancé pour occasionner des craintes en ce qui concerne la génération de contenus malveillants ou l'origine réelle des textes produits. Une appréhension partagée par les universités qui craignent particulièrement la triche.

OpenAI cherche donc des solutions pour qu'il soit possible d'identifier un contenu produit part ChatGPT, avec de discrets marqueurs. Scott Aaronson, actuellement chercheur invité chez OpenAI, a indiqué que l'entreprise travaillait sur l'intégration d'un « signal secret imperceptible ». Un prototype fonctionnel est déjà prêt, avec l'objectif d'éviter que du contenu généré ne soit considéré comme une création humaine.

« Cela pourrait être utile pour prévenir le plagiat universitaire, évidemment, mais aussi, par exemple, la génération massive de propagande - vous savez, spammer chaque blog avec des commentaires apparemment sur le sujet soutenant l'invasion de l'Ukraine par la Russie sans même un bâtiment plein de trolls à Moscou. Ou utiliser le style d'écriture de quelqu'un afin de l'incriminer », explique le chercheur.

Des mesures insuffisantes ?

Doté d'une approche crytographique, l'outil que souhaite proposer OpenAI aurait également des limites. Scott Aaronson a refusé d'en dire plus, et OpenAI s'est contentée de révéler que ce filigrane faisait partie d'un faisceau de solutions à l'étude permettant d'identifier un contenu généré par ChatGPT ou d'autres générateurs de texte. On reste donc un peu dans le flou, mais plusieurs universitaires et experts ont émis des doutes. Tout d'abord, en étant localisé sur les serveurs, l'outil pourrait ne pas fonctionner partout. De plus, il serait encore assez aisé de contourner la détection, avec des synonymes par exemple.

De son côté, Jack Hessel, chercheur à l'Allen Institute for AI, estime qu'un marqueur trop évident pourrait dégrader le contenu, tandis qu'un trop discret laisserait trop de place au doute lors de l'authentification. Il estime aussi que seul OpenAI pourrait être capable de fournir un outil de détection précis pour ChatGPT, là où l'indépendance serait de mise. Autrement dit, une empreinte trop discrète pourrait tromper l'observateur.

Chez AI21 Labs, concurrent d'OpenAI, on prône l'utilisation de plusieurs filigranes, liés à différentes parties des textes, associée à une mise en avant des sources. Quoi qu'il en soit, la traçabilité et la qualité des contenus générés sont de vrais enjeux pour les mois et années à venir.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Techcrunch