L'intelligence artificielle peut être utilisée pour de mauvais desseins. C'est ce que montre encore cette fausse alerte ayant eu lieu le lendemain de Noël.
Une technologie anime toutes les actualités depuis deux ans : l'intelligence artificielle. Il faut dire qu'au-delà des chatbots très connus comme ChatGPT ou bien Gemini, il y a de plus en plus d'outils pouvant être utilisés facilement pour de nombreuses tâches… dont des mauvaises. L'IA peut par exemple emprunter n'importe quel type de voix, pour tromper d'autres personnes. Les gendarmes l'ont appris à leurs dépens cette semaine !
Une alerte donnée par une voix de fillette…
Si certains sont devenus plus méfiants, et arrivent à repérer les deepfake audio, d'autres malheureusement qui doivent prendre au sérieux tous les appels n'ont pas le temps de trop cogiter. Et alors, ça peut mobiliser toute la société !
Ainsi, selon le média Sud Ouest, les gendarmes ont dû répondre le 26 décembre dernier à l'appel téléphonique de ce qui semblait être une fillette, et provenant de Saint-Romain-de-Noble. Elle expliquait avait vu son père tirer sur son ancienne compagne et sur sa deuxième fille. De quoi mettre en alerte les autorités.
… mais générée par l'IA !
Les gendarmes, accompagnés des secouristes du SMUR ainsi que des pompiers, ont en conséquence mis en place dans les heures suivantes un périmètre de sécurité important autour de la RD 813, qui traverse le Lot-et-Garonne. Sauf que, ce n'était pas vraiment une fillette au bout du fil, mais une intelligence artificielle !
Cet appel téléphonique était en effet un faux selon le maire de la ville, interrogé par Le Petit Bleu. Une personne malveillante l'avait passé en utilisant une IA permettant de reproduire la voix d'une fillette, et donc de mettre la pagaille sans que l'on ne puisse l'identifier à sa voix. On n'espère que les petits plaisantins malavisés ne s'amuseront pas à répéter ce genre d'action à l'avenir !
Source : Actu.fr