L'Autopilot de Tesla vient d'être mis à l'épreuve par un YouTubeur, et le moins que l'on puisse dire, c'est que ce n'est pas fameux. Le système a échoué sur plusieurs tests, qui, en conditions réelles, auraient eu des conséquences assez catastrophiques.

 Une Tesla Model 3 Long Range Dual Motor à Cluj-Napoca, en Roumanie. © RoClickMag / Shutterstock
Une Tesla Model 3 Long Range Dual Motor à Cluj-Napoca, en Roumanie. © RoClickMag / Shutterstock

Mark Rober, cet ancien ingénieur de la NASA reconverti en YouTubeur à succès, s'est lancé dans une expérience assez ludique : déterminer si les systèmes de conduite autonome peuvent être bernés par des obstacles basiques.

Dans sa vidéo parue le 15 mars Pouvez-vous tromper une voiture autonome ?, il confronte deux technologies rivales — l'Autopilot d'une Tesla Model Y, basé uniquement sur la vision par ordinateur, et un système concurrent utilisant des capteurs LiDAR (équipant une Lexus RX) à une série de défis un peu farfelus.

Pour celles et ceux qui ne le sauraient pas, les capteurs LIDAR (acronyme de LIght Detection And Ranging) sont une technologie de télédétection qui utilise la lumière sous forme d'un laser pulsé pour mesurer des distances variables jusqu'à un objet. Exactement comme le ferait un radar, mais à la place des ondes radios, c'est la lumière qui est utilisée pour la détection. De nombreux fabricants automobiles misent désormais sur cette techno pour leurs véhicules autonomes : le groupe Stellantis, Mercedes, BMW, Hyundai/Motional, Volvo, etc. Tesla, de son côté, a choisi de s'en passer.

L'Autopilot, aveugle sous condition

Le verdict tombe comme un couperet : après avoir réussi certains tests, l'Autopilot de Tesla fonce droit dans un mur peint reproduisant la route à environ 65 km/h (15:40 de la vidéo) là où le LIDAR le détecte directement.

Le mur n'est pas le seul écueil rencontré par l'Autopilot dans cette série d'expériences. Le système de Tesla échoue à plusieurs reprises, avec des résultats vraiment décevants lorsque les conditions visuelles sont dégradées (lumière, projections d'eau, etc.). Si la voiture parvient à éviter un mannequin d'enfant immobile, un autre qui surgit brusquement, et même un troisième partiellement masqué par des lumières aveuglantes (14:04), elle percute sans hésiter celui dissimulé par le brouillard (12:00) et par de l'eau envoyée sur la piste (13:10). En face, la Lexus passe tous les tests avec brio.

« Et s'il est peu probable que vous rencontriez une reproduction photoréaliste de la route collée sur un mur, le brouillard et la pluie sont des obstacles plutôt courants », fait remarquer Rober avec ironie.

 Heureusement que c'est un mannequin. © Mark Rober / YouTube
Heureusement que c'est un mannequin. © Mark Rober / YouTube

Tesla : l'entêtement anti-LIDAR

Tesla a délibérément écarté les capteurs LiDAR au profit d'un système reposant uniquement sur la vision par ordinateur. Les justifications varient selon les moments, mais tournent généralement autour du coût élevé de ces capteurs, de leur exigence en matière de traitement de données, et de leur rôle supposé de « béquille » freinant le développement de la vision artificielle. Elon Musk est allé jusqu'à qualifier le LiDAR « d'entreprise d'imbéciles ».

Cette position semble difficile à défendre face aux résultats de cette petite expérience. Comme le note Rober : « Difficile d'imaginer laisser votre voiture percuter un enfant qu'elle aurait pu éviter avec une autre technologie à bord, en se disant : "Au moins, ça n'a pas ralenti le développement d'une technologie qui, un jour, pourrait ne pas provoquer exactement ce qui vient de se produire"». Refuser d’utiliser une technologie qui fonctionne déjà, sous prétexte de développer une solution qui pourrait fonctionner un jour : une forme de pragmatisme inversé ?

La vidéo de Mark Rober a eu un effet secondaire qu'il n'avait certainement pas calculé : elle a transformé les plus fervents défenseurs de Tesla sur X en théoriciens du complot persuadés que le Mark est… financé par l'industrie du LiDAR pour dénigrer la marque ou qu'il aurait même truqué la vidéo. Un biais de confirmation massif, en réalité assez classique lorsqu'on critique une marque avec une communauté ultra-loyale, même sur le ton de l'humour.

Certains l'ont critiqué en lui écrivant qu'il aurait pu utiliser le FSD (Full Self Driving) de Tesla pour effectuer ses tests, et non le simple Autopilot. Toutefois, les détracteurs semblent oublier une réalité technique : l'Autopilot et le FSD partagent la même suite de capteurs principaux (caméras et radar) et utilisent les mêmes données de capteurs pour percevoir l'environnement. Il est donc peu probable que le FSD ait réussi ces tests là où l'Autopilot a échoué.

« Je ne comprends pas pourquoi les gens sont agacés par le fait qu'un laser mesurant littéralement la distance à un objet est significativement meilleur et plus robuste que d'utiliser une caméra puis d'essayer d'analyser ces données via un logiciel ? » explique un certain @Paul_D_DEWeese. Tout est dit dans ce commentaire, même si l'approche de Tesla basée sur les caméras et le logiciel a aussi ses propres atouts : richesse d'informations visuelles, réduction des coûts de production, potentiel d'amélioration par l'IA et simplicité relative du matériel nécessaire.

Source : Gizmodo