© Thirdman / Pexels
© Thirdman / Pexels

Les arnaques utilisant la capacité de l'IA à cloner les voix humaines tendent à se multiplier.

La technologie, c'est beau, sauf quand elle est utilisée à des fins malveillantes. Nous l'avons déjà vu avec le lancement de ChatGPT, que certains ont utilisé afin de coder des malwares. Et on le voit encore aujourd'hui avec une autre IA exploitée pour mener des escroqueries au téléphone.

Une voix et des fraudes

L'escroquerie entre dans un nouvel âge : celui de l'IA. Le développement de cette technologie donne en effet aux esprits les moins sympathiques de nouvelles possibilités de voler les plus vulnérables. Cette tendance est illustrée par l'arrivée de fraudes mises en place grâce à des IA génératives de voix. Cette technologie avait déjà fait parler d'elle il y a quelques semaines, quand l'outil proposé par ElevenLabs avait été utilisé afin de contrefaire la voix d'Emma Watson en train de lire Mein Kampf.

Des escroqueries de ce genre ont ainsi déjà été recensées outre-Atlantique. Le Washington Post a notamment pu rencontrer une famille dont la voix du fils de 39 ans avait été copiée. De là, les voleurs n'ont eu qu'à téléphoner à ses parents et à expliquer qu'il avait tué un diplomate américain dans un accident de voiture, ce qui nécessitait de sortir des fonds pour sa défense. Derrière, le couple apeuré a pu avoir au téléphone quelqu'un qui avait la même voix que leur fils et qui confirmait ce besoin. 15 000 dollars ont finalement été envoyés aux escrocs, une somme qui n'est plus jamais reparue.

Des escrocs difficiles à traquer

Malheureusement, une fois les fonds envoyés, les délinquants sont presque déjà à l'abri. Dans le cas de ce couple, l'argent a été transformé en bitcoins avant de disparaître. Les autorités doivent ensuite chercher l'aiguille dans la meule de foin durant leur enquête, les voleurs n'ayant besoin que d'un téléphone portable qu'ils peuvent utiliser absolument partout dans le monde. Alors, à quelle juridiction confier la tâche ?

Cette difficulté se double d'une facilité déconcertante de réalisation de l'escroquerie. Il n'y a en effet plus besoin, comme c'était le cas il y a encore un ou deux ans, de beaucoup d'enregistrements pour recréer une voix. « Si vous avez une page Facebook... ou si vous avez enregistré un TikTok et que votre voix y figure pendant 30 secondes, les gens peuvent cloner votre voix », explique ainsi le professeur à l'université de Berkeley Hany Farid.