La désinformation, une menace pesant de plus en plus lourd © metamorworks / Shutterstock
La désinformation, une menace pesant de plus en plus lourd © metamorworks / Shutterstock

Alors que de l'autre côté de l'Atlantique, les autorités envisagent de pénaliser sévèrement les deepfakes, OpenAI dévoile son arsenal de détection de contenus fallacieux. Ces outils seront-ils assez efficaces pour protéger les élections américaines de 2024 ?

À l'approche des élections de 2024, l'essor des deepfakes complexifie toujour plus chaque jour la question de l'intégrité de l'information. La désinformation est perçue actuellement comme un réel danger pour les populations et l'émergence de nouveaux outils surpuissants comme SORA d'OpenAI n'arrangent rien.

L'entreprise, consciente du danger, vient de présenter un nouvel outil qui, a priori, serait capable de détecter les contenus générés par IA. Toutefois, l'initiative laisse certains experts plutôt sceptiques quant à la réelle efficacité de ces mesures.

Peut-on vraiment arrêter les deepfakes ?

Le détecteur d'images produites par IA a été conçu spécifiquement pour identifier les images produites par DALL-E 3, son propre générateur d'images. Ce dernier affiche des résultats plutôt convaincants puisque son taux de détection atteint environ 98 %. Toutefois, lorsqu'il est question d'autres modèles d'IA, il s'essouffle ; et pas qu'un peu.

Son taux de réussite descend en flèche et stagne entre 5 et 10 %. Une performance qui frôle le ridicule. Expert pour flairer les productions de son créateur, mais quasiment aveugle face aux œuvres d'autres IA. Plutôt cocasse.

Comment fonctionne-t-il ? Pour authentifier les images créées ou modifiées par DALL-E 3, le système s'appuie sur des métadonnées résistantes à la manipulation. Ces dernières agissent comme une certification numérique, garantissant l'origine vérifiable du contenu et limitant les risques de falsification. Néanmoins, vu que ce mécanisme se limite aux images issues des outils d'OpenAI, combattre efficacement les deepfakes avec celui-ci risque d'être compliqué. Surtout dans un environnement numérique où prolifèrent de nombreux autres générateurs d'IA.

 Discerner le vrai du faux : une chimère lorsqu'on voit ce qu'est capable de produire Sora ? © Capture Clubic - OpenAI
Discerner le vrai du faux : une chimère lorsqu'on voit ce qu'est capable de produire Sora ? © Capture Clubic - OpenAI

Un pansement sur une jambe de bois

La stratégie « anti-deepfakes » d'OpenAI repose un pilier : l'adoption du standard C2PA (Coalition for Content Provenance and Authenticity) annoncé au début d'année. Le premier pourrait être comparé au Nutriscore, une forme d'étiquette sous forme de filigrane visant à renforcer la transparence et l'authenticité des contenus générés par IA. En intégrant des métadonnées résistantes à la manipulation, le standard C2PA permet de retracer l'origine exacte d'un contenu, augmentant ainsi la confiance dans son authenticité. Ces métadonnées sont censées garantir une transparence accrue sur le processus de création du contenu.

Néanmoins, le standard C2PA est loin d'être parfait. Parce que oui, les métadonnées supposément résistantes ne le sont pas complètement. Il reste toujours possible de les falsifier ou même de les supprimer. Cette faille pourrait être exploitée pour créer du contenu trompeur qui semble authentique. OpenAI elle-même reconnait ces limitations ; une situation rassurante.

OpenAI tente bien d'ériger des barrages contre les dérives potentielles de l'IA, on ne peut pas leur retirer. Toutefois, l'efficacité des mesures envisagées pour que les élections de 2024 se déroulent sans accroc reste encore vraiment incertaine. La course contre-la-montre pour sécuriser l'espace médiatique numérique est loin d'être gagnée. Surtout lorsqu'on comprend que les créateurs des outils faisant peser cette menace ne sont pas encore capables de les contrôler pleinement.

Source : Ars Technica