© Pixabay
© Pixabay

Un papier du New York Times révèle un phénomène plutôt problématique qui prend de l'envergure sur Amazon depuis quelques mois : le succès de faux guides de voyage prétendument écrits par la main humaine, mais qui sont en réalité générés grâce à une utilisation « judicieuse » de l'intelligence artificielle.

Pendant très longtemps, les guides de voyage en format papier ont été la référence de nombreux voyageurs. Le Guide du Routard par chez nous, ou le Lonely Planet chez nos amis anglo-saxons par exemple, étaient de vraies références. Même à l'ère du tout-numérique, ce genre de guide est encore fortement apprécié, et la plateforme d'e-commerce Amazon propose de nombreux ouvrages de ce type. Petit problème cependant : outre-Atlantique, de nombreuses personnes se font arnaquer en achetant des guides de piètre qualité, générés grâce à des modèles d'IA. Amazon, qui essaye tant bien que mal de montrer patte blanche en ce moment, en est littéralement inondée.

L'IA mise au service de l'escroquerie

C'est loin d'être la première et la dernière fois que l'IA servira à arnaquer les gens. Ici, l'entourloupe est relativement bien ficelée. Ces guides sont le fruit d'un travail minutieux à l'aide de plusieurs outils modernes : IA générative de textes, de fausses captures de sites web, de fausses images et de critiques fictives. Grâce à des prix attractifs, ces guides faussés arrivent à grimper en tête des ventes sur la plateforme, et l'on peut même les retrouver dans les recommandations Amazon. C'est plutôt inquiétant pour les clients, qui se retrouvent la plupart du temps avec des guides relayant des informations inexactes, voire complètement erronées.

Les petits malins qui se cachent derrière ces guides frauduleux savent s'y prendre pour que leurs créations se vendent comme des petits pains. Ils exploitent par exemple certaines lacunes de plateformes d'autoédition, comme le service Kindle Direct Publishing (fourni par Amazon), qui ne possède quasiment pas de défenses solides pour contrer une utilisation abusive de l'IA. On l'a d'ailleurs constaté avec une véritable inondation de livres générés par IA sur la plateforme.

Les escrocs créent également de faux guides de voyage à visage humain, avec photos et noms à l'appui, pour rendre ces petits livres plus crédibles et faire croire qu'ils ont été écrits par un baroudeur en chair et en os. En rajoutant à cela la possibilité d'acheter de fausses critiques en ligne pour gonfler le nombre d'étoiles accordées à leur produit, l'acheteur peut être très facilement trompé et tomber dans le panneau.

© Alexandre Boero pour Clubic
© Alexandre Boero pour Clubic

Des conséquences très négatives pour les voyageurs

L'essor de ces guides erronés est très problématique pour les voyageurs qui souhaitent planifier tranquillement leurs aventures. En se fournissant sur un site aussi sérieux qu'Amazon, et rassurés par les avis positifs, ceux-ci sont alors en confiance et achètent sans trop s'inquiéter. Ils risquent alors de se retrouver avec des guides de très mauvaise qualité entre les mains, ce qui pourrait complètement compromettre leurs voyages.

L'enquête menée par le New York Times révèle que cette désinformation boostée à l'IA commence à toucher des thématiques autres que le voyage : l'artisanat, la médecine (outch !), le bricolage, la cuisine, la programmation, etc. La tendance semble se généraliser, et ce type d'arnaques doit être très lucratif pour les personnes qui en sont à l'origine.

Voilà un bel exemple d'utilisation de l'intelligence artificielle à des fins complètement malfaisantes, parmi bien d'autres cas malheureusement. La tendance est inquiétante, mais ce qui l'est encore plus, c'est qu'Amazon ne semble pas vraiment contrôler quoi que ce soit dans cette situation, en tout cas pour le moment.