Le journal britannique The Guardian s'est intéressé dans un article aux problématiques rencontrées aujourd'hui par les constructeurs de véhicules autonomes et pose la question de la complexité du développement de tels systèmes pour proposer une conduite véritablement autonome et non semi-autonome.
Résultat de cette enquête : nous ne sommes pas près d'avoir sur nos routes des voitures entièrement autonomes et sécurisées malgré les beaux mots des constructeurs qui en promettent depuis 2014. Les récentes avancées peuvent cependant laisser optimistes.
De lointaines promesses
« D'ici à 20XX-20XX, vous pourrez acheter des voitures entièrement autonomes. » Cette phrase, nous la voyons ressortir tous les ans de la part des constructeurs de véhicules autonomes. Tesla, Honda, Waymo, Toyota… Pour certains, cette promesse a été formulée à de multiples reprises depuis 2014. Nous sommes en 2022 et, même si la technologie a évolué, nous sommes encore loin d'avoir sur nos routes des voitures autonomes sécurisées. C'est un constat général et sur lequel s'appuie The Guardian dans son article, revenant tout d'abord sur les problèmes rencontrés par les utilisateurs pour appuyer ce point.
Les dysfonctionnements du Full Self Driving de Tesla sont particulièrement mis en avant pour deux raisons principales. La première est que Tesla est une marque possédant la majorité du marché aux États-Unis, donc les témoignages et vidéos sont plus nombreux. On peut voir plusieurs comportements dangereux du FSD sur des vidéos partagées sur Twitter : multiples approximations, voiture qui veut impérativement rouler sur les rails du tramway, bugs empêchant le conducteur de reprendre le contrôle etc. Ces comportements ont été capturés par des testeurs non professionnels, une particularité étrange de Tesla.
La seconde raison ne vient pas du système en lui même mais de la communauté des fans de l'entreprise d'Elon Musk. Quel que soit le problème remonté en public par les consommateurs, l'armée de fans de Tesla, selon le Guardian, vient immanquablement le contredire, arguant que c'est principalement le conducteur qui est fautif ou que la publication du défaut n'a d'autre but que de nuire à l'entreprise. Une montée de bouclier quasi systématique qui protégerait la marque de toute critique et compromettrait une prise de recul concernant les dysfonctionnements.
Une technologie difficile à maîtriser
Pour Matthew Avery, directeur de recherche à Thatcham Research, interrogé par le Guardian, le système de voitures autonomes est incroyablement difficile à maîtriser. Pour lui, 80 % de la technologie (faire en sorte que la voiture suive une ligne blanche, évite une autre voiture, repère un feu) est simple à développer mais ce sont les 20 % restants qui sont les plus difficiles. Il y a d'abord 10 % de situations plus complexes comme les ronds-points ou les intersections et enfin les 10 % les plus compliqués qui sont les cas rares.
Il existe un nombre si élevé de paramètres à prendre en compte qu'il est quasiment impossible de les prédire à l'avance : une vache qui se tient au milieu de la route, un ballon qui tombe sur la chaussée, suivi d'un enfant qui traverse pour le récupérer etc. Ces paramètres sont censés être pris en compte par le machine learning équipant les voitures dites « autonomes ». Ces événements sont cependant tellement rares qu'il sont très peu présents dans la masse de données analysées par le système, qui ne peut donc apprendre.
Ainsi, selon Melanie Mitchell, informaticienne et professeure à l'Institut de Santa Fe, ce qu'il faudrait à une voiture, mais qu'il est quasiment impossible de développer, est un système de « bon sens », proche de celui des humains, pour faire face à ces situations. Si un cas rare, rapporté à tous les utilisateurs dans le monde, n'est plus si rare, l'énorme variabilité des circonstances empêche presque totalement l'ordinateur d'apprendre puisque celui-ci n'est pas équipé, dirons-nous, de « bon sens », de capacités d'analyse et de réflexion quasi humaines.
La bataille des chiffres
Un autre problème soulevé par l'article du Guardian, lié à ce qui a été dit précédemment, c'est la trop grande confiance des voitures dites autonomes, même lorsqu'elles se trompent. La masse de données analysées est tellement grande que les voitures prennent des décisions confiantes. « La technologie des voitures autonomes est très mauvaise pour savoir quand elle ne sait pas », explique Philip Koopman, professeur associé à la Carnegie Mellon University.
Pour lui, les fabricants de voitures autonomes vont devoir montrer des chiffres importants pour rassurer et affirmer que leur technologie permet, en effet, moins de morts sur la route. On rappelle qu'en France, selon l'Observatoire national interministériel de la sécurité routière, en 2020 ce sont plus de 2 500 personnes qui sont mortes sur les routes de la métropole. Aux États-Unis, on estime qu'il y a un mort tous les 160 km de route.
Sur ce volet de la sécurité, Koopman détaille : « La sécurité ce n'est pas que ça fonctionne bien la plupart du temps. La sécurité concerne les rares cas où cela ne fonctionne pas correctement. Ça doit marcher 99,9999999999 % du temps. Les entreprises de véhicules autonomes travaillent toujours sur les premiers 9, mais il reste encore un paquet de 9 avant d'y arriver. Pour chaque 9, c'est 10 fois plus compliqué à atteindre ».
Une technologie qui doit gagner en maturité
Bien évidemment, les systèmes de voitures autonomes pourraient être parfaitement sécurisés si et seulement si toutes les voitures en circulation l'utilisaient avec donc un respect mécanique et automatique des marquages au sol, des panneaux de signalisation et des autres usagers. Mais la réalité est là : ces systèmes autonomes ne peuvent pas encore faire face aux comportements humains, imprévisibles, qui constituent une très grande majorité de ce qu'il se passe sur nos routes aujourd'hui.
Les entreprises, selon le Guardian, ont investi plus de 100 milliards de dollars en 10 ans dans le développement de cette technologie, elles ne gagneraient donc rien à arrêter maintenant. Des avancées sont tout de même effectuées et les systèmes de niveau 2 voire de niveau 3 gagnent en précision sur ce qu'il savent déjà faire, mais nous sommes encore loin du sens véritable du terme « véhicules entièrement autonomes ».
Pour le moment on dénombre peu d’accidents « très graves » impliquant des voitures autonomes mais les experts se demandent si la technologie est capable de prendre en maturité afin d'être acceptée par les régulateurs, avant qu'un événement vraiment grave n'arrive et remette tout en question.
Source : The Guardian