Une IA anti-IA pour détecter les voix de synthèse

Dimitri PAVLENKO
Publié le 03 juin 2017 à 17h55
Alors que les technologies de synthèse de la voix font des bonds de géants grâce au machine learning, une société australienne alerte sur les risques de détournement de la voix humaine à des fins criminelles ou de manipulation de l'information.

Elle est en train de développer une IA capable de détecter les voix synthétiques, ce que l'homme ne sera bientôt plus en mesure de faire à l'oreille...

Des voix de synthèse bluffantes de réalisme

Dans la guerre contre les fake news, toujours avoir un coup d'avance. C'est en substance la devise qui préside aux recherches de la société australienne DT R&D basée à Melbourne. Alors que les voix synthétiques approchent désormais un rendu quasi-humain, elle imagine déjà le pire : de la même manière que l'on peut manipuler des images ou de la vidéo, une IA pourra tout à fait imiter à la perfection la voix de n'importe qui et lui faire dire n'importe quoi.

A l'automne 2016, l'équipe Google travaillant sur DeepMind, l'IA devenue imbattable au jeu de go, avait bluffé le monde en la faisant parler avec une aisance, une fluidité et une spontanéité toute humaine. En nourrissant des réseaux neuronaux, de nombreuses équipes dans le monde sont parvenues à des résultants impressionnants au point que, d'ici quelques années, l'intelligence artificielle mettra probablement au chômage les métiers du doublage, de la traduction, ou redonnera la voix aux malades l'ayant perdu.



l'IA anti-IA

Mais d'autres usages sont aussi envisageables. Illustration ci-dessus avec Lyrebird, une IA qui synthétise à la perfection la voix de Donald Trump et peut, du coup, dire ce qu'elle veut avec sa voix. Si ça a l'air vrai, que ça sonne juste, alors c'est peut-être authentique... Une perspective inquiétante qui a inspiré une réflexion d'autodéfense chez DT R&D, qui a donc mis au point ce qu'ils appellent une IA anti-IA.

Celle-ci prend la forme d'un dispositif auriculaire connecté à un smartphone, lui-même lié à un réseau neuronal. Ce dernier identifie quand la voix est synthétique. Il adresse alors un signal à l'appareil posé sur l'oreille, qui active à son tour un micromodule de refroidissement thermoélectrique en contact avec la peau. Le frisson ressenti vous alerte donc en temps réel que vous écoutez une fake voice. DT R&D en est au stade des expérimentations, mais une fois à maturité, l'IA anti-IA devrait vite trouver sa place dans le monde post-vérité...


Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles