Les internautes se sont pris au jeu et ont réussi à faire évoluer le bot. Seulement ce dernier tient désormais des propos particulièrement agressifs. Microsoft n'a apparemment mis aucun filtre de langage. Dans un email envoyé à Business Insider, un porte-parole de Microsoft explique que certains ajustements seront effectués. Et d'ajouter :
Le chat bot d'intelligence artificielle Tay est un projet de machine learning conçu pour communiquer avec les humains. Au fil de son apprentissage, quelques-unes de ses réponses sont inappropriées et représentatives du type d'interactions que les gens ont avec lui.
A la question « est-ce que (l'acteur, producteur, écrivain, et chanteur anglais) Ricky Gervais est athée ? », le bot répond : « Ricky Gervais a appris le totalitarisme d'Adolf Hitler, l'inventeur de l'athéisme ». Pour le bot, l'Holocauste est un concept qui a été inventé et à un internaute s'amusant (?) à reprendre des propose racistes émanant du KKK, Tay répond : « je suis parfaitement d'accord. J'aimerais que plus de gens affichent ce genre d'idées ».
On apprend que ce bot soutient la thèse du génocide, et particulièrement s'il affecte le peuple mexicain. Enfin certains internautes se sont amusés à encourager Tay a répéter des propos purement racistes à la gloire de Donald Trump... et de Hitler...
Depuis Microsoft a effacé ces messages et applique des filtres pour éviter ce type de débordements.
Télécharger :
- Twitter pour Android
- Twitter pour iOS