La plateforme lance un outil dans Creator Studio qui exige des créateurs de signaler si un contenu, pouvant être confondu avec la réalité, a été créé avec des médias modifiés ou synthétiques, y compris l'IA générative.
On ne pourra pas dire qu'on ne nous avait pas prévenus. YouTube avait annoncé le 14 novembre 2023, dans une série d'engagements majeurs, pouvoir exiger des créateurs d'indiquer si leur contenu a été modifié ou créé de manière synthétique, en particulier pour les vidéos touchant des sujets sensibles tels que les élections, les conflits en cours, les crises de santé publique, ou les personnalités publiques.
C'est désormais chose faite. Depuis ce lundi 18 mars 2024, la plateforme a annoncé l'introduction d'un nouvel outil dans Creator Studio qui obligera les créateurs à intervenir quand un contenu pourra être confondu avec une personne, un lieu ou un événement réel, ou qu'il a été créé avec des médias modifiés ou synthétiques y compris l'IA générative.
Cette mesure vise à empêcher les utilisateurs de croire qu'une vidéo créée de manière synthétique est réelle ; un défi de plus en plus grand à mesure que les outils d'IA générative deviennent plus sophistiqués. Cette annonce intervient alors que les experts ont averti que l'IA et les deepfakes pourraient poser un risque notable lors de la prochaine élection présidentielle américaine.
Un cadre strict, mais quelques aménagements
Afin d'assurer plus de transparence à ses abonnés, la plateforme de vidéos de Google, qui a récemment déclaré la guerre aux non connectés, a mis en place ce nouvel outil dans Creator Studio. Comme annoncé précédemment, ces informations sont présentées sous forme d'étiquettes dans la description détaillée ou directement sur le lecteur vidéo.
« Le nouveau label vise à renforcer la transparence auprès des téléspectateurs et à instaurer la confiance entre les créateurs et leur public », peut-on lire sur le blog de YouTube.
Les vidéos générales comporteront un libellé dans leur description détaillée, tandis que celles traitant de thèmes délicats tels que la santé, l'actualité, les élections ou la finance, se verront attribuer un libellé plus proéminent directement sur la vidéo.
Une règle éthique qui pose un cadre de transparence, certes, mais qui n'est pas restrictive pour autant. En effet, la nouvelle politique de YouTube ne nécessite pas que les créateurs divulguent du contenu clairement irréaliste ou animé comme quelqu'un chevauchant une licorne dans un monde fantastique.
Elle n'oblige pas non plus les créateurs parfois en mal d'argent à divulguer le contenu qui a utilisé l'IA générative pour aider à la production, comme la génération de scripts ou de sous-titres automatiques.
Il s'agit réellement de cibler les vidéos qui mettent en scène une personne réaliste.
Par exemple, les créateurs devront indiquer s'ils ont modifié numériquement du contenu pour « remplacer le visage d'un individu par celui d'un autre ou générer synthétiquement la voix d'une personne pour raconter une vidéo ». Ils devront également désigner le contenu qui modifie les images d'événements ou de lieux réels, par exemple en donnant l'impression qu'un véritable bâtiment a pris feu. Les créateurs devront enfin indiquer à leurs abonnés s'ils ont généré des scènes réalistes d'événements majeurs fictifs, comme une tornade se dirigeant vers une ville réelle.
Un déploiement progressif, mais un règlement applicable immédiatement
Les semaines à venir marqueront le déploiement progressif de ces étiquettes sur toutes les plateformes et formats de YouTube, débutant avec l'application mobile et s'étendant par la suite aux ordinateurs et téléviseurs. Si YouTube souhaite offrir à sa communauté le temps nécessaire pour s'habituer aux nouvelles procédures et fonctionnalités, des mesures de conformité seront envisagées pour les créateurs qui omettent régulièrement de divulguer ces informations. YouTube se réserve le droit d'ajouter des étiquettes de manière proactive, surtout si le contenu modifié ou synthétique risque de tromper ou induire en erreur.
Dans le même temps, la mise à jour des règles de confidentialité est elle aussi en cours. Elle permet d'ores et déjà aux utilisateurs de solliciter la suppression de contenus générés par l'IA ou d'autres contenus synthétiques ou modifiés qui imitent une personne identifiable, incluant son visage ou sa voix.
On l'a bien compris, YouTube entend bien profiter du développement de l'intelligence artificielle générative au sein de sa plateforme et encourager les créateurs de contenus à y avoir recours. En imposant un certain cadre à ses créateurs et permettant aux utilisateurs d'être également acteurs, la plateforme montre qu'elle est à la fois transparente et à l'écoute de sa communauté.
11 octobre 2024 à 19h11
Source : YouTube