Le Full Self Driving est-il la cause d'un accident ayant eu lieu en Californie ? C'est ce que doit déterminer une enquête en cours de la NHTSA.
La structure a déjà Tesla dans le viseur, notamment à cause d'une clause de confidentialité entre les testeurs de la version bêta du Full Self Driving et l'entreprise, empêchant ainsi la NHTSA d'avoir accès aux informations à propos des tests de cette technologie d'aide à la conduite.
Un crash causé par le Full-Self Driving : une première
L'enquête poursuit son cours, mais plusieurs éléments sont déjà connus. Aux États-Unis, et plus précisément le 3 novembre dernier en Californie, un accident a eu lieu entre deux véhicules. Rien de bien rare jusqu'ici, sauf que l'une des voitures impliquées est une Tesla Model Y et que le Full Self Driving était activé au moment du crash.
Et le courroux du chauffeur, qui a donc depuis déposé plainte auprès de la National Highway Traffic Safety Administration (NHTSA), provient du fait que, selon lui, le Full Self Driving n'en a fait qu'à sa tête. « Le véhicule […] a donné une alerte au conducteur à mi-chemin du virage, et le conducteur a essayé de tourner le volant pour éviter le reste de la circulation, selon la plainte. Mais la voiture a pris le contrôle et "s'est forcée dans la mauvaise voie, créant une manœuvre dangereuse mettant en danger toutes les personnes impliquées" ».
Si aucun blessé n'est à déplorer, malgré de sévères dégâts matériels, cela rappelle que la NHTSA travaille déjà sur une enquête au sujet d'accidents au cours desquels une autre technologie d'aide à la conduite de la firme, l'Autopilot Tesla, était actif. Un cas qui pourrait donc donner de l'eau au moulin à la structure, avec pas moins de 765 000 véhicules de la marque passés au crible.
De son côté, Tesla argue que le Full Self Driving n'est jamais totalement autonome
La firme d'Elon Musk a notamment répondu que, malgré leurs noms, ces technologies ne sont que des aides d'assistance à la conduite, pas des conducteurs autonomes. Il est à noter que le Full Self Driving est toujours en phase bêta, la dernière mise à jour (10.3) ayant d'ailleurs été suspendue, puis retirée par la firme alors que (justement) plusieurs utilisateurs avaient fait part de messages intempestifs annonçant des collisions malgré l'absence de danger, ou encore des freinages non désirés.
Il faut dire que depuis leur lancement, les technologies d'aide à la conduite telles que l'Autopilot et le Full Self Driving sont sans cesse en cours de rodage. Comme tout système innovant, ceux-ci ont encore de nombreuses limites à dépasser. Par exemple, si l'Autopilot a notamment permis en août dernier de stopper un véhicule Tesla sur la bande d'arrêt d'urgence avec à son bord un chauffeur norvégien manifestement ivre selon l'enquête de police, le fait qu'il ait été plusieurs fois invoqué que l'Autopilot confond le feu orange avec la Lune traduit encore le travail qu'il reste à accomplir pour la firme américaine.
Source : AutoBlog