Vitor Miranda / Shutterstock.com
Vitor Miranda / Shutterstock.com

ChatGPT n'est a priori pas encore capable de remplacer les avocats. Ce qui ne devrait pourtant pas empêcher l'avocat américain Steven Schwartz de perdre son job à cause du chatbot.

La raison ? Cet avocat new-yorkais s'est un peu trop aidé de cette IA pour monter un dossier d'accusation, sans vérifier l'exactitude de ce que ChatGPT a rédigé. Le résultat, prévisible pour certains, est que son dossier référençait plusieurs affaires antérieures similaires… mais qui n'existaient pas.

Que reproche-t-on à Schwartz ?

Il y a quelque temps, Roberto Mata, qui assure avoir été blessé lors d'un vol de la Colombia Airlines, prend contact avec Levidow, Levidow, et Oberman, la firme juridique qui emploie Schwartz. Devant les efforts de la compagnie aérienne pour demander au juge saisi de refuser l'affaire, Schwartz est chargé de rédiger un brief à destination du juge, afin d'exposer les arguments en faveur de la poursuite du procès. Le document, très exhaustif, fait plus de 10 pages, et référence de nombreux cas d'affaires similaires ayant donné lieu à des procès. C'est ici que notre histoire commence.

Car parmi tous ceux qui ont eu le dossier entre les mains, personne n'a pu trouver de traces de trois de ces affaires. La raison est simple : elles n'existent pas, c'est ChatGPT qui a tout inventé. Confronté à cela, Schwartz a expliqué qu'il n'utilisait l'IA que pour ajouter des détails à ses documents, et ignorait que l'IA avait la capacité d'inventer des affaires. Pour prouver sa bonne foi, il a dégainé une capture d'écran montrant qu'il a demandé au chatbot si ces cas étaient réels, ce à quoi l'IA aurait répondu oui, et que ces derniers pouvaient être trouvés dans d'authentiques bases de données juridiques.

© Pixabay
© Pixabay

ChatGPT, pas encore au point en tant qu'avocat de demain

Au-delà de la naïveté ou du manque de sérieux de Schwartz, c'est loin d'être la première fois qu'une intelligence artificielle « hallucine », c'est-à-dire assène des faits comme des vérités alors qu'il a été démontré qu'elles étaient fausses. Même Google, lors d'une présentation de Bard, avait souffert de ce type de déconvenue.

Et ce problème, qui peut n'être qu'accessoire si l'IA venait à remplacer d'autres professions, serait autrement plus grave si elle prenait la place de docteurs, de journalistes… ou d'avocats. Cela vient également remettre en question l'emballement autour des compétences d'avocat de ChatGPT. Car si ce chatbot est apparemment capable de passer des examens lui permettant de le devenir, pas sûr qu'un tel défaut lui permette de trouver facilement des clients.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Sources : engadget, Numerama