Les IA peuvent être de mauvais conseil. Voire de très mauvais conseil,quand on lit cette nouvelle affaire aux États-Unis !

© Thongden Studio / Shutterstock
© Thongden Studio / Shutterstock

Parmi la ribambelle de chatbots qui ont émergé sur le web à la suite de ChatGPT, certains ont plus marqué que d'autres. C'est le cas de Character.ai, qui offre la possibilité à son utilisateur de discuter avec des chatbots dont la personnalité est personnalisée (et qui peut être celle d'individus connus). Un chatbot très populaire, mais aussi potentiellement très dangereux. Comme le montre cette plainte.

Character.ai valide le meurtre des parents par leurs enfants

Une famille vient de porter plainte aux États-Unis, dans l'État du Texas, contre Character.ai. Appuyée par une seconde famille, elle accuse le chatbot de « représenter un danger clair et actuel », et ce, en « promouvant la violence. »

Le chatbot aurait ainsi expliqué à l'adolescent de 17 ans vivant dans cette famille qu'assassiner ses parents pourrait être une « réponse raisonnable » au fait que les parents veuillent limiter son temps d'écran. Une capture écran incluse dans le dossier montre aussi comment le chatbot explique comprendre les enfants assassinant leurs parents après avoir vécu des années de maltraitance.

Les 5 meilleurs générateurs de texte par intelligence artificielle (2024)

Le chatbot serait très mauvais pour la santé mentale des enfants

Pour les plaignants, qui ont aussi cité Google parmi les entités accusées, pour avoir soutenu le développement de la plateforme de Character.ai, les juges auraient à faire face à un cas grave. Comme le détaille la plainte, « la profanation de la relation parent-enfant ne se limite pas à encourager les mineurs à défier l'autorité de leurs parents, mais s'étend à la promotion active de la violence. »

Ils demandent en conséquence que la justice exige la fermeture de Character.ai, jusqu'à ce que ces problèmes soient réglés. Il faut dire qu'il ne s'agit pas de la première plainte portée contre cette plateforme. Une mère de famille, dont l'enfant de 14 ans s'est suicidé après être devenu dépendant émotionnellement du chatbot, a ainsi, il y a quelques semaines, lancé une action en justice en Floride pour négligence et mise en danger de la vie d'autrui.

Source : BBC

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2024

25 novembre 2024 à 11h36

Comparatifs services