ChatGPT joue les faussaires malgré lui. Le petit dernier d'OpenAI, censé citer ses sources, invente des liens web pour une dizaine de médias partenaires. Résultat : des enquêtes majeures introuvables et des éditeurs qui font grise mine.
L'IA qui devait révolutionner le monde a encore des progrès à faire. ChatGPT, le moulin à paroles d'OpenAI, fait des siennes. On le croyait incollable, capable de répondre à toutes les questions. Le voilà qui bafouille quand il s'agit de citer ses sources.
Une étude du Nieman Lab vient de mettre les pieds dans le plat : le robot conversationnel invente des URL à tour de bras, même pour les médias qui lui ont ouvert leurs archives. Le hic, c'est que ChatGPT est censé être le nouveau Graal de l'information en ligne.
Cette bourde technique fait grincer pas mal de dents dans le monde de la presse. Et pour cause, les promesses d'OpenAI aux éditeurs commencent à ressembler à un chèque en bois.
Des contrats alléchants, mais une réalité décevante
OpenAI a multiplié les partenariats avec des groupes de presse ces derniers mois. L'objectif affiché ? Enrichir sa base de données et améliorer les performances de ChatGPT. En échange, l'entreprise promettait aux médias une visibilité accrue et des liens fonctionnels vers leurs articles. Parmi les heureux élus, on trouve des mastodontes comme l'Associated Press, le Wall Street Journal, ou encore Le Monde.
Ces accords, souvent chiffrés en millions de dollars, devaient permettre à ChatGPT de citer correctement ses sources et de renvoyer les utilisateurs vers les articles originaux. OpenAI s'est même engagé à offrir un « placement prioritaire » et une « expression de marque plus riche » dans les conversations. De quoi faire saliver les éditeurs en quête de trafic et de reconnaissance.
Mais voilà, entre la théorie et la pratique, il y a parfois un gouffre. ChatGPT peine à tenir ses promesses. Non seulement il génère des liens cassés, mais il le fait pour des enquêtes majeures, souvent récompensées par des prix prestigieux. Andrew Deck, journaliste spécialisé en IA pour le Nieman Lab, a testé pour vous. Comme il le résume dans un post publié sur son compte X.com, il a « testé la capacité du chatbot à citer ses sources d'information pour @NiemanLab . Il génère régulièrement des liens brisés, même vers les plus grandes enquêtes de ses partenaires ». Oups.
On nage en plein paradoxe. Pour ne citer que lui, le Wall Street Journal en a fait les frais avec son enquête sur les paiements de Donald Trump à Stormy Daniels. ChatGPT connaît l'histoire sur le bout des doigts, mais impossible de vous mener à la source. C'est un peu comme si votre bibliothécaire connaissait par cœur le contenu d'un livre sans pouvoir le retrouver sur les étagères.
L'Union européenne recadre OpenAI
Ces gaffes sont arrivées jusqu'aux oreilles de l'Union européenne de radio-télévision (UER), qui s'est empressée de siffler la fin de la récré. Dans un récent rapport, elle souligne l'importance de l'attribution et de l'affichage correct des sources dans les systèmes d'IA générative. L'UER insiste sur la nécessité pour ces outils de concevoir des moyens d'attribuer correctement les sources utilisées, par exemple via des liens vers les contenus des organismes médiatiques.
L'UER va plus loin en appelant à une collaboration entre fournisseurs d'IA, intermédiaires en ligne et organismes de médias pour lutter contre la désinformation. Elle préconise notamment d'assurer la visibilité de médias fiables et diversifiés, de concevoir des solutions fiables pour vérifier l'origine du contenu, et d'identifier clairement la désinformation.
18 octobre 2024 à 17h25
Reste à voir si OpenAI et ses concurrents sauront relever ces défis techniques et éthiques, ou si les éditeurs devront se contenter de liens imaginaires vers leurs précieux contenus. Une inconnue qui ne semble pas faire frissonner le mastodonte de la presse américaine, le Time Magazine, qui vient de passer un accord de licence avec le papa de ChatGPT. Si vous utilisez l'IA au quotidien, et en attendant que ChatGPT corrige ses « erreurs 404 », la concurrence vous tend les bras. Mais n'oubliez pas, de son propre aveu, il vous prévient : « ChatGPT peut faire des erreurs. Envisagez de vérifier les informations importantes ». Faute avouée…
- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
Source : Meta Media, Nieman Lab, UER