La découverte est majeure car elle impacte tous les acteurs du secteur des assistants personnels et tous les supports. Sans compter que l'attaque peut être menée à distance, à tout moment et ce malgré les précautions de sécurité prises par le propriétaire de l'appareil.
Une commande vocale à ultrasons : vous ne l'entendez pas, Alexa, Siri et les autres oui
Les ultrasons sont au centre de cette nouvelle faille de sécurité découverte par les chercheurs, qui l'ont appelée DolphinAttack en référence aux dauphins qui communiquent, justement, par ces sons. Ils sont inaudibles pour l'oreille humaine à cause de leur fréquence très élevée supérieure à 20.000 Hz. Mais les microphones des assistants personnels, qu'ils soient intégrés à une enceinte connectée, sur votre smartphone ou dans une voiture, les entendent.L'attaque consiste donc tout simplement à diffuser un message sur une fréquence ultrasonique. Ce message sera interprété correctement par les assistants personnels. Les chercheurs sont parvenus à faire réaliser aux assistants personnels des tâches comme appeler un numéro, ouvrir un site web et même ouvrir une porte avec une serrure connectée. Les possibilités qui s'offrent aux pirates sont donc nombreuses, du téléchargement de malware à la possibilité d'ouvrir les portes d'une maison. Sur une Audi Q3, les chercheurs ont pu changer la destination du GPS.
Un faille majeure mais qui a une réponse simple
Si tous les assistants personnels sont vulnérables à cette attaque, elle reste difficile à perpétrer : les enceintes connectées, par exemple, doivent être débloquées pour recevoir une commande vocale. En général, elles émettent un son lorsqu'elles valident une commande, donc le propriétaire devrait se rendre compte qu'il y a un souci. C'est un peu plus problématique pour une personne en train d'utiliser son smartphone dans la rue, mais l'appareil utilisé par les chercheurs n'a, pour l'instant, qu'une portée de 2 mètres. Rien n'empêche des pirates de tenter le coup ou d'essayer d'améliorer la portée du signal.Du côté des constructeurs, néanmoins, il y a une réponse simple au problème, comme le signalent les chercheurs de l'Université de Zheijiang dont les résultats ont été publiés dans la revue arXiv le 31 août 2017. Ils peuvent soit changer les microphones pour qu'ils ne soient plus en mesure de capter les fréquences ultrasoniques, soit paramétrer les assistants personnels pour qu'ils ignorent les commandes reçues sur ces fréquences.
En attendant, redoubler de vigilance n'est peut-être pas un luxe. D'autant plus que ce piratage fonctionne en anglais, chinois, allemand, espagnol et français... Donc potentiellement dans toutes les langues.
- Bisto : bientôt un casque ou des écouteurs Google Assistant ?
- On a testé la Google Home, l'assistant personnel par Google !
- Facebook pourrait lancer son propre assistant domestique
- Assistants vocaux : Siri et S-Voice en repli au profit d'Alexa et de Cortana ?
- Que peut vous apporter Google Home, l'assistant personnel intelligent ?
- Un assistant personnel appelle la police durant une dispute