Google vient de présenter un outil de traduction assez incroyable, qui permet de traduire un discours filmé dans une nouvelle vidéo identique.
Les problèmes potentiels créés par l'IA sont légion, et de plus en plus impressionnants. Les géants de la Tech le savent, et à l'image de Google, essayent d'apporter des remèdes. Mais aujourd'hui justement, la firme de Mountain View nous a présenté un nouvel outil qu'il va vite falloir réguler !
Universal Translator, l'introduction
Depuis le début de l'année, c'est, dans le monde de la Tech, à qui présentera l'intelligence artificielle la plus incroyable possible. Et si l'on a été enchanté ces derniers mois par l'émergence de puissants chatbots, Google pourrait bien avoir réussi à reprendre un peu d'avance avec son nouveau bébé : Universal Translator.
Un outil d'IA présenté durant sa conférence annuelle Google I/O, et qui, comme son nom l'indique, sert à traduire. Mais contrairement à nos habituels DeepL ou même Google Translation, il s'agit ici de traduction vidéo. Avec Universal Translator, la vidéo de base est dupliquée, quand le discours est lui traduit dans la langue voulue, puis réinséré dans la bouche du locuteur avec un ton et un son de la voix clonés. Le résultat juste en dessous est bluffant !
Le pire des deepfakes ?
La performance est telle que le mouvement des lèvres sera, lui aussi, adapté à la langue de destination de la traduction. Sauf que si l'on peut évidemment saluer une nouvelle prouesse de la part de l'entreprise présidée par Sundar Pichai, on comprend très vite quelles sont les potentielles implications négatives d'une telle technologie.
En effet, en s'emparant des capacités de ce genre d'IA, il sera tout à fait possible de produire une vidéo dans laquelle des pirates pourront faire dire les pires horreurs à une personne quelconque face caméra, le tout avec une capacité extrêmement faible à distinguer le vrai du faux. Une mésaventure qui était déjà arrivée à Emma Watson, quand sa voix avait été clonée pour lui faire lire du Mein Kampf.
Google est bien sûr conscient de ce possible mauvais usage, alors que l'IA devient déjà un outil de prédilection de la désinformation. Ainsi, pour le moment, le service est considéré comme expérimental, et ne sera partagé qu'avec un nombre restreint de partenaires. Cela sera-t-il suffisant ?
Sources : Barsee sur Twitter, Androidhealines, 01net