De simples images projetées peuvent induire en erreur les pilotes auto Tesla (et d’autres)

Bastien Contreras
Publié le 04 février 2020 à 17h52
Tesla Autopilot

Des chercheurs sont parvenus à tromper plusieurs systèmes d'aide à la conduite, en projetant des images 2D sur la trajectoire des véhicules ou au bord de la route. Ils ont ainsi pu pousser les voitures à freiner ou à changer de direction, un comportement qui pourrait mettre en danger leurs conducteurs ou les autres usagers.

Une récente étude universitaire a mis en exergue un nouveau défaut de sécurité sur les systèmes d'aide à la conduite de plusieurs véhicules. En l'occurrence, les scientifiques ont testé deux technologies : l'Autopilot de la Tesla Model X HW 2.5 et Mobileye 630 PRO, employé notamment chez Renault, Honda ou Mazda.

Suivre les mauvaises lignes ou de faux panneaux

Le principe de leurs expériences était plutôt simple : projeter des images en 2D sur la route, ou au bord de celle-ci, et observer la réaction automatique des voitures. Et les résultats obtenus ne sont pas vraiment rassurants.

Autopilot Tesla confond une image avec un piéton
L'Autopilot de Tesla confond une image avec un piéton © Nassi et al.

Ainsi, les deux systèmes ont été incapables de différencier une projection d'un individu ou d'un véhicule d'un véritable obstacle. Ils ont à chaque fois décidé de ralentir ou de freiner. Plus dangereux encore, les chercheurs ont projeté des lignes factices sur la route, qui ont alors été confondues avec le vrai marquage au sol, entraînant un changement de trajectoire dont les conséquences pourraient être dramatiques.


Autopilot Tesla suit des lignes projetées
L'Autopilot de Tesla suit des lignes projetées au sol © Nassi et al.

Et la manœuvre fonctionnait également sur le bord de la route. Les systèmes d'aide à la conduite ont en effet été trompés par des images de panneaux de signalisation, adaptant alors leur vitesse à ces fausses indications. Un stratagème qui s'est révélé efficace dans le cas d'une projection sur un mur ou sur un arbre, mais aussi en intégrant le panneau factice au sein d'une publicité vidéo diffusée sur le mobilier urbain.

Image de panneau de limitation de vitesse trompant Mobileye 630 PRO
Image de panneau de limitation de vitesse trompant Mobileye 630 PRO © Nassi et al.

De potentielles attaques invisibles ?

D'après les auteurs de l'étude, ces failles sont d'autant plus inquiétantes qu'elles nécessitent peu de moyens pour être exploitées. Il suffit d'un projecteur vendu dans le commerce, porté à la main ou installé sur un drone, pour détourner la trajectoire d'un véhicule.

De plus, de telles attaques pourraient survenir, tout en étant invisibles à l'œil nu. Car les scientifiques indiquent qu'une exposition de quelques centaines de millisecondes seulement aux fausses images pourrait suffire à leurrer l'Autopilot ou Mobileye 630 PRO.


Les constructeurs auraient été prévenus de ces dysfonctionnements, mais n'auraient pas encore apporté de solution. Charge à eux désormais de résoudre le problème, peut-être en s'inspirant des technologies de reconnaissance faciale, capables de distinguer un visage humain d'une photo.

Source : ZDNet
Bastien Contreras
Par Bastien Contreras

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autres surprises, que vous pourrez découvrir à travers mes articles... Et je suis là aussi si vous voulez parler actu sportive, notamment foot. Pour ceux qui ne connaissent pas, c'est comme du FIFA, mais ça fait plus mal aux jambes.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
BetaGamma

Je pense que les hackers vont bien se marrer sur les routes !

rexxie

De simples images peuvent tromper les humains de la même manière. La vraie question est combien de gens font exprès de saboter la conduite des véhicules?

Jehlem

Les règlements de compte ne se feront plus à la kala

Fulmlmetal

Y a pas besoin de faire de fausses images pour trompeur l’autopilot de la Tesla, elle y arrive toute seule dans la nature.
Y a qu’à voir les vidéos (meme récentes) sur les nombreuses erreurs de l’autopilot ça fait peur. La reconnaissance des panneaux de vitesse ne semble pas fonctionner (en tout cas en europe), les lignes au sol sont parfois mal percues et elle se rattrape parfois sur la voie voisins (ce qui peut engendrer des faces à face), il semble que les motards ne soient pas bien perçus, etc.
Bref oui l’autopilot peut etre bernés si on cherche à le faire, c’est normal puisqu’il est basé sur du visuel, mais ce qui est inquiétant c’est qu’il arrive à etre berné tout seul sans qu’on cherche à le faire.

zoup01

De toute façon, l’autopilote sans système de pilotage intégré dans la chaussée et sans communication entre les véhicules, cela ne fonctionnera jamais correctement …
Pas trop envie d’etre dépendant de bug logiciel…
Encore un autre problème qui remonte sans bruit, c’est la détection des motos par ces soi disant véhicules autonomes…
À interdire, tout simplement.

TotO

ET bien, que l’on verbalise les plaisantins… (Ha, on m’indique que se sont de faux policiers sur le bord de la route)

olahaye74

Souvent l’interface siège volant as plus de bugs que l’autopilot…En tout cas, ça va tendre à le devenir.

zoup01

Je suis tout à fait conscient de ça, mais les systèmes développés actuellement sont complètement anti sécuritaire…
Aucune communication entre véhicules, ce qui signifie aucune redondance si un système bug…
Aucun système de guidage autre que visuel avec traitement logiciel.
Chaque constructeur fait sa cuisine dans son coin, sans aucune compatibilités entre véhicules.

Je roule en moto, j’ai vraiment pas envie d’etre mal détecté par le véhicule suiveur, et ça, sans communication entre véhicules, on ne peut pas le garantir techniquement.

quand tous les constructeurs se réuniront autour d’une table pour mettre en place un système universel avec un équipement technique des infrastructures routières, j’adhérerais au truc…pas avant.

Fydryss

La voiture automatisée ne fonctionnera jamais sauf si elle évolue sur des voies entièrement dédiées.
La neige, l’aquaplanning, gestion de l’absence de marquage.
Une simu toute simple. 1 route avec ligne continue à gauche, trottoir à droite, passage pour piéton devant avec une personne qui traverse, la voiture n’a pas la distance de freinage nécessaire.
La voiture automatisée n’a pas le droit de traverser une ligne blanche ni de monter sur le trottoir. Freinage mais percute quand même le piéton.
L’humain peut faire un évitement en passant à gauche même si c’est interdit.

rexxie

La reconnaissance des panneaux de vitesse a été brevetée par MobilEye il y a des années, donc Tesla ne peut l’utiliser. Une aberration selon moi, ils ont profité de la nouveauté de la technologie FSD pour faire breveter une évidence, comme le bouton de droite de la souris disons…

Au lieu de te concentrer sur les quelques erreurs de l’autopilot, parle nous plutôt des milliards de km conduits sans erreur et des rapides progrès du deep learning de Tesla.

Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles