Détecter les deepfakes audio grâce aux souris : une piste qui pourrait porter ses fruits

Benoît Théry
Publié le 18 août 2019 à 16h22
audio wave signal sonore

C'est le nouveau fléau d'Internet. Les deepfakes sont des vidéos ou des enregistrements audio modifiés par une IA. En règle générale, ils visent à attribuer à une personne des actes ou des paroles dont elle n'est pas l'auteur.

Des célébrités ont ainsi vu leurs visages remplacer celui d'actrices pornographiques. D'autres ont vu les propos qu'ils ont tenus lors d'interviews être modifiés et remplacés par des discours outrageants. La difficulté des deepfakes est qu'ils se perfectionnent très vite, et qu'ils sont déjà difficiles à déceler. Mais une équipe de chercheurs a peut-être la solution : des souris.

Des souris comme détectrices de faux

Les deepfakes s'appuient sur le machine learning. Dans le cas d'un enregistrement audio, il s'agit dans un premier temps de fournir à l'ordinateur des discours de la personne ciblée. La machine en retire alors tout ce qui rend unique la voix de cette personne. L'auteur du deepfake peut alors, avec une précision souvent surprenante, créer un nouveau discours sur ce même ton de voix. Bien entendu, ce genre d'enregistrements est susceptible de ruiner la vie privée ou la réputation d'une personne : Google, Facebook et Twitter avertissent déjà quant à l'utilisation de deepfakes pendant l'élection américaine de 2020.


Mais un trio de chercheurs américains a une piste susceptible de fonctionner pour détecter les deepfakes audio. L'un d'eux, Jonathan Saunders, travaillant à l'institut de neuroscience de l'Oregon, dit que « l'étude des mécanismes de calcul avec lesquels les mammifères détectent les faux enregistrements pourrait fournir des algorithmes généralisables ».

En d'autres termes, les souris ont un système auditif comparable à celui de l'homme, mais elles ne comprennent pas le sens des mots. Ici, cette absence de compréhension pourrait être utile, car l'animal se concentre alors sur les signes d'un faux enregistrement, et non sur le décodage du sens de la phrase. Par exemple, alors qu'un homme ne prêtera pas d'attention à une légère erreur de prononciation, la souris la verra comme une preuve de faux.

Les premiers essais sont encourageants

Les trois chercheurs ont donc mis leur hypothèse à l'épreuve. Des souris ont été exercées à distinguer des consonnes, un élément qui sera utile dans la détection de deepfakes. Présentés le 7 août 2019 à Las Vegas, les résultats sont là : dans 80 % des cas, la souris identifiait correctement les sons qui lui étaient proposés. Les scientifiques sont encore en deçà de leurs espérances, recherchant un taux de 90 %.


Mais l'objectif n'est pas pour eux d'entraîner des souris intelligentes. Il s'agit bien de cerner l'activité cérébrale de la souris, afin de comprendre le cheminement utilisé par son cerveau pour distinguer des éléments caractéristiques d'un deepfake. À terme, ce cheminement sera retranscrit dans des ordinateurs, sous la forme d'algorithmes. Et d'ici quelque temps, peut-être, des applications pourront valider (ou infirmer) l'authenticité d'un enregistrement audio avec une grande efficacité.

Source : CNet
Benoît Théry
Par Benoît Théry

Je veux tout savoir, et même le reste. Je me passionne pour le digital painting, la 3D, la plongée, l'artisanat, les fêtes médiévales... Du coup, j'ai toujours des apprentissages sur le feu. Actuellement, j'apprends à sourire sur mes photos de profil.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (6)
GRITI

Le chemin semble bien long avant d’y arriver. Sans compter que les deepfakes vont s’améliorer.
Les preuvrs audio et vidéo ne seront plus recevables à force.
On peut imaginer un homme politique (exemple pris au hasard) pris en flag en disant quelque chose de non politiquement correct dans un cercle privé. Propos qui fuiteraient ensuite sur le net. La polémique arrive et sa défense serait: je n’ai jamais dit cela. C’est un deepfake !!! :wink:

LeGrosWinnie

Vidéo si car c’est plus chaud pour faire un faux, à moins que la personne soit seule et se parle à elle même y’a forcément un ou plusieurs témoins.
Et l’audio n’a jamais été une vrai preuve je pense (pas dans le sens irréfutable) car il n’y a aucun context exploitable en général. Ca sert juste à ouvrir une enquête, mais aucun juge ne condamnerai juste sur une parole.

obyoneone

pauvres bestioles utilisées comme des machines, constamment hardwired à un ordi…for self destruct ! \m/

twist_oliver

pauvres bestioles ?? au contraire elles sont privilégiées, elles ont droit à toute cette techno avant nous :wink: car on y passera

playAnth95

Les enregistrement de Benalla l’an dernier quand il parlait de ses agissement ect, on a bien vu que l’audio et la masse y prêtait une totale confiance.

GRITI

Tout à fait. C’est ce qui me fait peur avec les deepfakes audios et vidéos. Peu de gens connaissent le sujet du deepfake (à part les amateurs de célébrités et de porno :wink: ). Et comme la masse prend pour argent comptant ce qu’ils voient ou entendent sur les chaînes d’information continue ou sur Youtube… En termes de manipulation des masses, nous avons là un outil ultra puissant je trouve.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles