© Shutterstock
© Shutterstock

Un étonnant projet de série générée par IA a été bannie temporairement de Twitch, ce lundi.

Si la plateforme de streaming n'en a pas révélé la cause, ce ban est intervenu après une série de blagues et de remarques transphobes. Ses créateurs ont annoncé travailler à ce que de tels événements ne se reproduisent pas.

Qu'est-ce que Nothing, forever ?

Fin janvier, le site Vice rédigeait un article sur un projet étrange et alors encore assez méconnu : Nothing, Forever. Cette série, dont les visuels, le scénario et les dialogues ont été intégralement générés par IA, reprenait presque tous les codes de Seinfeld, une série américaine culte des années 90. Les codes sont respectés, avec une partie en stand-up et une autre où l'on voit les personnages dans leur appartement qui discutent de la vie, de l'amour et de leurs relations. Une semaine après l'article, la chaîne Twitch dédiée à la série affichait une moyenne de 11 000 spectateurs, fascinés par ce spectacle étrange.

Générés par IA donc, les épisodes se suivaient sans discontinuer en permanence. Et si les codes de la sitcom étaient très bien respectés, la parodie de Seinfeld a tout de même démontré que les scénaristes n'avaient pas encore trop de soucis à se faire. Beaucoup de dialogues n'avaient tout simplement pas de sens, et les scènes de stand-up ont démontré à quel point l'IA avait des progrès à faire en matière d'humour. Mais tout cela a pris fin, au moins temporairement, ce lundi, lorsque la chaîne a été bannie pour 14 jours.

Un nouvel exemple que la neutralité de l'IA n'existe pas

Lorsque les créateurs de Nothing, Forever ont posté un message informant leur public de sa suspension temporaire, nombreux sont ceux qui ont vu un lien avec les blagues homophobes et transphobes que l'un des personnages a faites dans l'un des derniers épisodes diffusés. Et si Twitch n'a pas confirmé la raison, les créateurs se sont engagés à s'assurer que ce type de contenu ne fasse pas son retour dans la série.

C'était néanmoins difficilement évitable. En effet, les barrières morales établies par les entreprises qui créent des IA suffisent rarement à se prémunir d'un problème notable : les IA sont entraînées à reproduire des discours humains, pas à les juger. Il était presque inévitable que cela se produise, surtout que le matériel de base est une série d'il y a 30 ans, sortie dans une société moins ouverte d'esprit qu'aujourd'hui.

Source : Vice