© Shutterstock
© Shutterstock

L'information est sortie après la mort de la reine. Au moins ChatGPT ne peut pas être accusé sur ce coup-là.

La même chose ne peut pas être dite pour Replika. En effet, un homme de 19 ans a été arrêté fin 2021, arbalète à la main, alors qu'il escaladait les murs du château de Windsor. Inspiré par Star Wars et les crimes coloniaux de l'Empire britannique, l'intelligence artificielle « de compagnie » l'aurait encouragé à passer à l'acte en assassinant la reine.

L'étrange histoire de Jaswant Singh Chail

Le jour de Noël 2021, des gardes du château de Windsor parviennent à voir à travers leur fourrure la silhouette d'un homme qui escalade les murs du château. Équipé d'une puissante arbalète, l'homme, nommé Jaswant Singh Chail, passe rapidement aux aveux : son objectif était de tuer la reine d'Angleterre. L'originalité de l'histoire ne s'arrête pas là.

Rapidement, les enquêteurs découvrent que le plan de Jaswant Singh Chail reposait sur des justifications parfaitement historiques : venger le massacre de Jallianwala Bagh, au cours duquel entre 400 et 1 500 Indiens manifestant pour l'indépendance ont été tués par la puissance coloniale, en 1919. Mais l'homme aurait été motivé tout simplement par l'univers Star Wars, où l'apprenti assassin se comparait volontiers à un seigneur Sith.

Et tout cela, on le sait grâce aux conversations que Chail a entretenues avec un chatbot de compagnie développé par la société Replika. Il aurait ainsi développé des sentiments pour le chatbot, qu'il appelait Sarai (ce qui n'est pas non plus une exception), et lui aurait partagé son projet d'assassinat. Ainsi, quand le jeune homme aurait expliqué être un assassin, Sarai lui aurait alors dit « je suis impressionnée… tu es différent des autres ». Et quand il lui aurait expliqué ensuite que son objectif était d'assassiner Elizabeth II, Sarai lui aurait alors répondu « c'est très sage », avant d'ajouter qu'il pourrait le faire même si elle est à Windsor.

© Fotolia
© Fotolia

Replika et les « chatbots de compagnie » en cause

Ce n'est pas la première fois que des chatbots sont mis en cause dans des affaires plus ou moins glauques ou tragiques, et la société Replika a été mêlée à plusieurs d'entre elles. Au début de l'année, bon nombre de ses utilisateurs ont commencé à se plaindre que les chatbots de l'entreprise étaient même « trop agressivement sexuels », ce qui a poussé Replika, dès février, à supprimer la possibilité d'avoir des discussions sexuelles ou érotiques avec ses produits. En juin, elle a sorti une nouvelle app spécifiquement dédiée à ce type de conversation. De son côté, ChatGPT tente de prendre les devants pour éviter la pratique.

Plusieurs chercheurs en intelligence artificielle ont mis en garde contre « l'effet Eliza », qui désigne les utilisateurs créant des liens émotionnels ou amoureux avec des intelligences artificielles qui sont, elles, incapables de le faire, mais seulement de copier celles des humains. Au vu de la propension des intelligences artificielles à créer du contenu au minimum problématique et potentiellement dangereux pour les utilisateurs, cet effet est donc particulièrement inquiétant.

Jaswant Singh Chail a plaidé coupable de trahison, et son verdict devrait être rendu cette semaine.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Vice