Une équipe de scientifiques a réussi à commander l'ouverture d'une porte ou l'allumage des lumières connectées d'une maison en simulant une voix humaine grâce à la modulation d'un faisceau laser.
Les enceintes connectées ne sont pas les appareils les plus sûrs en matière de confidentialité, l'affaire des écoutes des conversations enregistrées par les assistants vocaux par des sous-traitants en est la preuve.
Un simple rayon laser bien dirigé peut activer votre assistant vocal
Takeshi Sugarawa, chercheur en sécurité, a quant à lui trouvé une autre faille d'ordre matériel cette fois-ci. Le scientifique a pu, à l'aide d'un faisceau laser de 60 milliwatts pointé vers le micro d'une enceinte connectée, ouvrir une porte de garage ou allumer les lumières d'une maison en simulant une commande vocale.Le chercheur, associé à des scientifiques de l'Université du Michigan, explique dans son étude que les membranes présentes sur les microphones peuvent être trompées par un signal lumineux, qui va l'interpréter comme une commande vocale.
En variant l'intensité lumineuse selon des fréquences précises, il est possible de concevoir des commandes vocales qui peuvent en théorie contrôler toutes les fonctionnalités proposées par les assistants.
Les enceintes Google Nest Mini peuvent désormais être appairées pour créer un effet stéréo
« Il est possible de faire en sorte que les microphones réagissent à la lumière comme s'il s'agissait d'un son. Cela signifie que tout ce qui agit sur les commandes sonores agira sur les commandes lumineuses », explique Takeshi Sugarawa.
Une faille difficile à exploiter mais prise au sérieux par Google
Les smartphones sont également concernés par ces possibilités d'attaque, mais dans une moindre mesure. Le sujet doit se trouver au maximum à environ 10 m pour un iPhone et 5 m pour un téléphone Android. Les enceintes connectées Google Home, Amazon Echo ou le système Portal de Facebook sont eux accessibles jusqu'à 110 m de distance.La possibilité d'une attaque reste minime, l'enceinte connectée devant être clairement visible et l'assaillant devant viser précisément le micro à plusieurs dizaines de mètres de distance. Les chercheurs ont néanmoins partagé leurs découvertes avec Google, qui va se pencher sur le sujet pour corriger le tir sur les prochaines versions de ses enceintes connectées.
Source : Android Police