Des escrocs ont utilisé l'intelligence artificielle pour cloner la voix du ministre de la Défense italien Guido Crosetto afin d'escroquer de grandes entreprises. L'ancien président de l'Inter Milan a versé 1 million d'euros, persuadé de participer à la libération de journalistes kidnappés à l'étranger.

Avec l'IA, on peut parler au nom de n'importe qui © ArtemisDiana /Shutterstock
Avec l'IA, on peut parler au nom de n'importe qui © ArtemisDiana /Shutterstock

Ce qui va suivre s'est passé en Italie, mais pourrait très bien arriver chez nous, avec nos personnalités politiques ou économiques. Armani, Beretta, Pirelli et le groupe pharmaceutique Menarini font partie des entreprises italiennes contactées par de faux représentants du ministère de la Défense de leur pays.

Les escrocs ont reproduit la voix du ministre Guido Crosetto grâce à l'intelligence artificielle pour convaincre leurs interlocuteurs de verser de l'argent. Le prétexte : libérer des journalistes emprisonnés à l'étranger. L'ancien président de l'Inter Milan, Massimo Moratti, a transféré 1 million d'euros sur un compte à Hong Kong. La police italienne a depuis récupéré les fonds. Cette affaire rappelle celle dont on vous avait déjà parlé sur Clubic, qui concernait un cadre dirigeant de Ferrari, qui avait déjoué le deepfake audio du soi-disant grand patron de la marque au cheval cabré.

Le deepfake audio continue de s'améliorer avec l'intelligence artificielle

C'est ce qu'on appelle « l'arnaque au président », hélas répandue. Parfois sous la forme de deepfake vidéo, ou par le biais de l'usurpation d'identité, cette cyberescroquerie est un véritable fléau. Pour ce braquage à l'italienne, tout commence par un appel au standard des entreprises. Un homme se présente comme le « Dr. Giovanni Montalbano » du ministère de la Défense. Il annonce un appel urgent du ministre Crosetto pour une « question de sécurité nationale » et communique un numéro de téléphone étranger à rappeler. « Nous avons déjà reçu des appels de personnes se faisant passer pour des généraux de la Garde financière ou de l'Armée », témoigne Lucia Aleotti, codirigeante du groupe Menarini au Corriere della Sera.

Les escrocs utilisent l'actualité de la journaliste Cecilia Sala, emprisonnée en Iran et libérée le 8 janvier. « Tout cela semblait absolument vrai », reconnaît Massimo Moratti après avoir été piégé. Les outils de deepfake audio, multipliés depuis l'essor et avec l'amélioration continue de l'IA générative, permettent maintenant de reproduire n'importe quelle voix de manière réaliste.

Audio ou visio, les deepfakes ne cessent de s'améliorer avec l'IA © Panchenko Vladimir / Shutterstock
Audio ou visio, les deepfakes ne cessent de s'améliorer avec l'IA © Panchenko Vladimir / Shutterstock

L'humain comme dernier rempart contre les nouvelles arnaques

« Certaines défenses viennent du bon sens », explique Lucia Aleotti, dont l'entreprise Menarini (qui n'est pas ciblée par hasard, avec ses 4,3 milliards d'euros de chiffre d'affaires en 2023) forme régulièrement son personnel à la cybersécurité. « Le thème de la sécurité nationale, l'urgence, le mystère sont des éléments qui doivent rendre méfiant », poursuit-elle. Son assistante Chiara a déjoué la tentative d'escroquerie grâce à sa vigilance. « Nous devons toujours être vigilants, ne jamais nous sentir intelligents », prévient Lucia Aleotti.

Il faut dire que l'entreprise reçoit régulièrement des propositions douteuses : « Un jour, ils ont essayé de nous vendre un Caravage et, il y a quelques années, même un Léonard de Vinci », se souvient-elle. Plusieurs plaintes ont été déposées, y compris par le ministre Crosetto. Le Sommet de l'IA à Paris a abordé ces nouveaux risques liés au clonage vocal, c'est dire si parler de fléau n'est pas exagéré.