Une seule photo suffit désormais pour créer une vidéo hyperréaliste d'une personne en train de parler, danser ou donner une conférence. ByteDance, la maison-mère de TikTok, dévoile son nouveau modèle d'IA capable de générer des deepfakes d'une qualité sans précédent.

Une avancée technique qui relance le débat sur l’éthique des synthèses vidéo ultra-réalistes.
Une avancée technique qui relance le débat sur l’éthique des synthèses vidéo ultra-réalistes.

Sora a du soucis à se faire. L'entreprise chinoise franchit une nouvelle étape dans la génération vidéo par intelligence artificielle. Entraîné sur plus de 18 700 heures de contenus, OmniHuman-1 peut transformer n'importe quelle image fixe en une vidéo animée complète, incluant les mouvements du corps entier et les expressions faciales.

La promesse technique d’OmniHuman-1

Entraîné sur plus de 18 700 heures de données vidéo, le système combine images, audio et données de mouvement pour synchroniser gestes, expressions faciales et discours. Contrairement aux outils précédents limités aux visages ou aux bustes, il anime l’intégralité du corps humain, y compris dans des positions dynamiques comme la danse ou la manipulation d’objets.

L’IA procède d’abord par compression des données d’entrée (photo + audio), puis génère progressivement les mouvements grâce à un système de raffinement comparatif. Cette méthode permet d’obtenir des résultats comme cet Einstein virtuel délivrant un cours de physique ou une fausse conférence TED, présentés par les chercheurs.

Si les démonstrations officielles impressionnent, les créations perdent en qualité avec des images basse résolution ou des poses complexes. Un exemple montre une main tenant un verre de vin dont les doigts se déforment légèrement, un rappel que l’illusion n’est pas encore parfaite.

Des implications sécuritaires préoccupantes

Cette innovation soulève des enjeux éthiques et sécuritaires majeurs. En février, un escroc a dérobé 25,6 millions de dollars à un employé financier grâce à un deepfake lors d'une visioconférence. Les spécialistes mettent en garde contre le vol d'identité et la manipulation de l'opinion. Cette technologie menace de générer de faux discours politiques et de propager la désinformation à grande échelle.

Face à ces enjeux, plusieurs pays adoptent des législations spécifiques. Les États-Unis ont notamment introduit le DEEPFAKES Accountability Act qui impose un marquage numérique sur les contenus générés artificiellement. La Chine a également mis en place des dispositions strictes avec les Deep Synthesis Provisions, interdisant la production de deepfakes sans accord préalable de l'utilisateur.

L'Union européenne n'est pas en reste avec son AI Act, entré en vigueur début 2025. Cette réglementation pionnière exige que tout contenu deepfake soit clairement identifié comme étant généré par l'IA, via un étiquetage spécifique. Les créateurs doivent notamment divulguer l'origine artificielle du contenu et détailler les techniques utilisées.

Source : Tech Radar