© geralt / Pixabay
© geralt / Pixabay

Microsoft a déployé une IA pouvant reproduire quasi parfaitement une voix en à peine plus de temps qu'il n'en faut pour dire « ouf ».

Baptisé « VALL-E » (à ne pas confondre avec DALL-E), ce nouvel outil n'a en effet besoin d'entendre une voix que pendant trois secondes pour l'imiter, et ce, jusque dans les émotions et les intonations.

É-VALL-ution des techniques

Les outils propulsés par l'intelligence artificielle capables de reproduire une voix sont loin d'être une nouveauté. Mais là où VALL-E tire vraiment son épingle du jeu, c'est dans sa capacité à retransmettre les émotions de la voix qu'elle imite.

Cela, et aussi bien entendu le fait qu'elle puisse le faire en écoutant un extrait de seulement trois secondes. Pour parvenir à ce tour de force, Microsoft a entraîné l'outil en le nourrissant de 60 000 heures de données relatives à des discours narrés dans la langue de Shakespeare.

Encore très jeune, VALL-E n'est bien sûr pas parfaitement au point, et se cantonne pour l'instant à la reproduction de voix en anglais. Il est possible d'écouter divers exemples de son travail sur GitHub, courtoisie de l'université de Cornell. Certains extraits conservent ainsi encore une sonorité robotique, tandis que d'autres se montrent effroyablement convaincants.

Une potentielle boîte de Pandore ?

Compte tenu de son déploiement tout frais, VALL-E n'est actuellement pas accessible au grand public. Il serait peut-être d'ailleurs préférable que cela ne soit jamais le cas. S'il est encore possible de faire la distinction entre une voix générée par l'outil de Microsoft et une voix humaine, cela pourrait très rapidement changer.

Difficile ainsi de ne pas imaginer les nombreuses implications de l'utilisation de VALL-E à des fins malhonnêtes ou frauduleuses, en usurpant notamment l'identité d'autres personnes. Tant sur le terrain des médias que de la sécurité, et bien d'autres encore.

Qui dit intelligence artificielle dit également potentielles pertes d'emploi. En l'occurrence, les comédiens de doublage et animateurs de radio ou encore de podcasts pourraient être à terme mis sur la touche. Quand bien même Microsoft a déjà planché sur des règles éthiques et des mesures de régulation autour de VALL-E, cela n'empêchera pas cette nouvelle IA d'être détournée, comme tant d'autres avant elle.

Source : AITopics