Siri et Alexa réagissent à des commandes inaudibles pour les humains

Anton KUNIN
Publié le 11 mai 2018 à 13h37
Un chercheur en sécurité informatique a développé une méthode, jusqu'ici infaillible, pour transmettre à Amazon Alexa, Google Now et autres Siri des commandes vocales totalement inaudibles pour l'oreille humaine.

Tous les assistants vocaux disponibles sur le marché seraient plus ou moins touchés.

Google home


Une nouvelle porte d'entrée pour les hackers

C'est la version 2.0 du message subliminal : Nicholas Carlini, doctorant à UC Berkeley et spécialiste de la sécurité informatique, est parvenu à insérer des phrases dissimulées dans des morceaux de musique, complètement inaudibles à l'oreille humaine, mais auxquelles la reconnaissance vocale des assistants réagit bien.

En entendant ces commandes, ces derniers peuvent prendre des photos, envoyer des messages et visiter des sites malicieux. Selon la marque de l'assistant vocal et ses paramétrages, il peut même ouvrir des serrures, envoyer de l'argent et faire des achats en ligne. Le travail de Nicholas Carlini est censé démontrer la vulnérabilité des différents assistants vocaux disponibles sur le marché à ce type d'attaque.

Retransmis via une enceinte, les messages cachés sont captés par l'assistant vocal, qui exécute aussitôt la commande. Dans son article, Nicholas Carlini montre comment, avec quelques modifications - même mineures - des ondes, les assistants domestiques se mettent à confondre des mots. Clin d'œil au fameux « cocaine noodles », faussement interprété par Google Assistant comme un « OK Google » !

google assistant


Les fabricants se défendent

Le travail de Nicholas Carlini fait écho à celui d'autres étudiants de UC Berkeley et de l'Université de Georgetown, qui sont parvenus, en 2016, à contraindre des smartphones à visiter tel ou tel site, ou encore de mettre ces téléphones sur mode avion en les exposant à ce qui est perçu par l'oreille humaine comme du simple bruit blanc.

Et même si ces ondes malicieuses ne peuvent pas (encore) franchir les murs, il est en revanche possible de détourner un assistant vocal en les diffusant via une vidéo YouTube, tout simplement.

L'information est d'autant plus inquiétante que, selon une étude d'Ovum, d'ici 2021, le nombre d'appareils intégrant un assistant vocal devrait surpasser celui des humains. Interrogés par le New York Times, les principaux fabricants se défendent : Apple a rappelé qu'elle demande systématiquement le déblocage de l'iPhone avant de laisser Siri exécuter des commandes pouvant avoir des conséquences appréciables (faire une réservation ou un achat), tandis qu'Amazon a répondu vérifier systématiquement l'« empreinte vocale » de la personne prononçant une commande, avant de dévoiler des informations personnelles sensibles.

Sources : Nicholas Carlini, Ovum, The New York Times.


Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles