Mozilla lance un avertissement aux utilisateurs de chatbots romantiques alimentés par l'intelligence artificielle. En pleine Saint-Valentin, le navigateur souligne les risques sérieux liés à la collecte de données personnelles, avec un constat alarmant.
Saint-Valentin oblige, le plus émotif des navigateurs, Mozilla, s'est lancé dans une évaluation de la confidentialité et de la sécurité des chatbots romantiques, parmi lesquels Chai, Eva ou Replika. Parmi les 11 applications passées en revue, le bilan pourrait se tenir en une phrase : aucune ou presque ne répond aux normes minimales de sécurité. Autrement dit, elles exposent toutes leurs utilisateurs à divers risques potentiels. De quoi renforcer les inquiétudes quant à l'utilisation de l'intelligence artificielle dans les relations romantiques simulées.
Les chatbots romantiques prolifèrent, en plus d'être de vrais pisteurs
Dans les applications de simulation amoureuse, l'utilisation d'algorithmes d'IA est en pleine expansion. 100 millions de téléchargements ont été constatés dans ce domaine sur les 12 derniers mois, pour les 11 robots conversationnels examinés par Mozilla. Avec le GPT Store d'OpenAI, les chatbots de ce type pullulent désormais, alors que sa politique de confidentialité les interdit, en théorie.
Sur les 11 robots conversationnels examinés, 10 ne respectent pas les normes minimales de sécurité de Mozilla. La collecte massive de données, combinée à des lacunes dans la protection des informations personnelles, expose les utilisateurs à des risques majeurs, selon les chercheurs.
Ces derniers ont d'ailleurs identifié pas moins de 24 000 traqueurs de données, après seulement 60 secondes d'utilisation. On peut dire que l'IA romantique est plutôt curieuse. « Celles-ci envoient d’importantes quantités de données à des plateformes comme Facebook mais aussi à des sociétés de marketing et de publicité », déplore un Mozilla au petit cœur brisé.
Une absence totale de transparence et de contrôle sur vos données personnelles
Si l'on prend l'exemple de Replika AI, l'application enregistre toutes les photos, vidéos et même textes des utilisateurs. Leurs données comportementales sont partagées (et peut-être même vendues à des annonceurs), et aucune incitation à la création d'un mot de passe difficile n'est faite. Autrement dit, l'application est une vraie passoire sécuritaire.
De manière générale, les politiques de confidentialité des chatbots romantiques manquent de transparence dans… un peu tout, et notamment dans l'utilisation des données des mobinautes pour entraîner leurs modèles d'IA. La plupart des applications n'autorisent même pas de refuser d'utiliser des conversations à des fins d'entraînement IA.
Des extraits de conditions générales, comme celles de Romantic AI, révèlent des contradictions en ce qu'elles précisent que l'outil n'est pas un « prestataire de santé » et qu'il « ne fournit pas de soins médicaux, de services de santé mentale ou encore d'autres services professionnels de santé ». Pourtant, sur son site, l'application revendique être là pour « prendre soin de votre SANTÉ MENTALE », les majuscules sont bien réelles. Autant dire que là, on est un peu à la limite d'un point de vue éthique, non ?
Des chatbots romantiques ouverts à tous : l'incroyable laxisme des éditeurs
Les chatbots romantiques sont facilement accessibles aux moins de 18 ans, ce qui de fait expose les jeunes utilisateurs à des contenus perturbants, pornographiques ou illégaux. Imaginez qu'en moyenne, il ne faut que 5 clics et 15 minuscules secondes pour accéder à de tels contenus sur certaines applications.
Mozilla met aussi en garde contre les risques de dépendance, de solitude, et de toxicité associés à ces chatbots, en soulignant qu'ils ne sont pas des substituts appropriés aux relations humaines authentiques. « Pour le dire clairement, les petites amies et les petits amis basés sur l’IA ne sont pas vos amis », conclut Misha Rykov, chercheur chez Mozilla.
- 100 % développé en interne
- Fiable, efficace et stable
- Fonctionnalités d'optimisation de l'interface et de l'expérience utilisateur