Microsoft vient d'annoncer sur son blog deux nouveaux outils visant à lutter contre les deepfakes. L'un d'eux est un Video Authenticator, un logiciel visant à déterminer en temps réel si une vidéo a été modifiée.
Celui-ci fournira à l'utilisateur un pourcentage, donnant une idée de la probabilité d'avoir affaire à un deepfake.
Les deepfakes continuent de se répandre
Le nombre de deepfakes mis en ligne ne cesse d'augmenter. D'après une étude publiée par la société DeepTrace, ce nombre avait augmenté de 84% entre décembre 2018 et octobre 2019, la grande majorité des deepfakes étant à caractère pornographique.
Sur son blog, Microsoft fait le même constat, mais en l'étendant à d'autres sphères. Le géant déclare : « Il ne fait aucun doute que la désinformation se répand. La recherche que nous avons soutenue du professeur Jacob Shapiro à Princeton, mise à jour ce mois-ci, a répertorié 96 campagnes d'influences étrangères distinctes ciblant 30 pays entre 2013 et 2019 ».
Il ajoute : « Des rapports récents montrent également que de la désinformation a été diffusée concernant la pandémie de COVID-19, entraînant des décès et des hospitalisations de personnes recherchant des traitements supposés qui sont en fait dangereux ».
« Score de confiance »
En réaction, Microsoft affirme vouloir aller plus loin dans la lutte contre ce type de désinformation qu'elle estime être un danger, notamment en période de campagne électorale.
La société annonce donc le lancement d'un logiciel baptisé Video Authenticator, qui « peut analyser une photo ou une vidéo fixe pour fournir un pourcentage de chance, ou un score de confiance, que le média soit manipulé artificiellement ».
Dans le cas d'une vidéo, il peut fournir ce pourcentage en temps réel sur chaque image pendant la lecture de la vidéo. Il fonctionne en détectant des éléments typiques d'un deepfake, mais qui ne sont pas toujours détectables par l'œil humain, comme une décoloration ou une modification des niveaux de gris.
Le logiciel a été développé par Microsoft en utilisant des données publiques issues de Face Forensic++, une base de données utilisée pour mettre au point des outils de détection de visages modifiés. Il a ensuite été testé au cours du Deepfake Detection Challenge.
Suivre l'évolution des deepfakes
Avec lui, Microsoft espère faire mieux face à des deepfakes qui continuent de se perfectionner. Elle affirme : « Nous pensons que ces méthodes de génération de médias continueront de gagner en sophistication. Comme toutes les méthodes de détection de l'IA ont des taux d'échec, nous devons comprendre et être prêts à répondre aux deepfakes qui passent au travers des méthodes de détection ».
Parallèlement, Microsoft a également annoncé un second outil conçu en partenariat avec le Defending Democracy Program. Il s'agit d'une extension de navigateur utilisant les métadonnées et le Cloud Azure pour « à la fois détecter le contenu manipulé et garantir aux internautes que le média qu'ils consultent est authentique ».