Des experts ont prouvé que les capteurs de caméras CMOS pouvaient être manipulés pour empêcher les logiciels d'aide à la conduite des véhicules Tesla et Apollo de Baidu de lire les panneaux de signalisation. Cette expérience représente un danger mortel pour les automobilistes si elle devait tomber entre les mains de hackers.
Décidément, la sécurité des conducteurs de véhicules avec assistance de conduite embarquée n'est pas encore garantie. L'Autopilot de Tesla, qui a récemment été épinglée par la justice américaine pour de possibles tromperies envers ses clients, est à nouveau mis en cause.
Cette fois, comme l'expliquent nos confrères du site The Register, ce ne sont pas les logiciels d'aide à la conduite qui sont directement touchés, ce sont des capteurs des caméras CMOS, embarquées à bord des véhicules Tesla, mais également des taxis autonomes Apollo Baidu. Il s'agit plus précisément de la technologie GhostStripe, qui permet la détection des panneaux de signalisation.
Comment fonctionne GhostStripe pour lire les panneaux de signalisation
La technologie GhostStripe utilise des marquages virtuels invisibles pour les humains, conçus pour être détectés par les caméras des véhicules autonomes.
Les GhostStripes (« bandes fantômes ») sont généralement faits pour être visibles dans des longueurs d'onde spécifiques, telles que l'infrarouge. Les caméras des véhicules autonomes peuvent être équipées de filtres pour détecter ces longueurs d'onde spécifiques.
Lorsque la caméra capture une scène, l'algorithme de traitement d'image recherche les GhostStripes. Si un panneau de signalisation est équipé de ces marquages, il devient plus facile à détecter et à identifier, même en cas de faible luminosité, de brouillard ou de pluie.
Lorsque le système fonctionne, il joue son rôle d'assistant de conduite. Les capteurs des caméras CMOS à bord des Tesla ou des Apollo Baidu bénéficient de cette technologie qui peut être très utile lorsque le conducteur effectue de longs trajets propices à la fatigue oculaire et à la déconcentration, ou s'il conduit sous des intempéries ou de nuit.
Des LED pour brouiller le système de détection de GhostStripe
De simples LED ont suffi à des experts de différentes universités de Singapour pour prouver qu'il était possible de réduire la technologie GhostStripe à néant. Ces LED émettent rapidement des couleurs différentes sur le panneau de signalisation pendant que la ligne de capture active se déplace sur le capteur CMOS de la caméra.
De fait, la caméra capture une image avec des lignes qui ne correspondent pas exactement les unes aux autres. Cette image est ensuite envoyée à un classificateur dans le logiciel de conduite autonome du véhicule. Le classificateur, qui s'appuie généralement sur des réseaux neuronaux profonds, ne reconnaît pas l'image comme un panneau de signalisation en raison des lignes déformées.
Mais ce qui fait froid dans le dos, c'est que les experts ne s'en sont pas tenus qu'à la théorie. Ils ont testé leur expérience sur route, avec deux versions de GhostStripe « attaquée ». La première, baptisée originalement GhostStripe1, contrôle le brouillage par LED interposées à distance. La seconde, bien nommée GhostStripe2, est embarquée et pontée sur l'alimentation de la caméra, technique que pourrait utiliser un hacker pour contrôler ensuite le véhicule. Les résultats sont effrayants et affichent entre 93 et 97 % de « réussite » de brouillage de GhostStripe.
Ironie de l'histoire, les chercheurs attribuent l'absence d'attaque parfaite aux mauvaises conditions météo durant l'expérience de conduite réelle. « Cette dégradation se produit parce que la lumière d'attaque est submergée par la lumière ambiante », ont-ils justifié auprès de The Register, qui a contacté Baidu. Pour l'heure, l'entreprise n'a pas encore réagi sur cette expérience.
Source : The Register