Comme ça quand c’est la vision qui se plante, on est sûr de se planter…
Il y a quand même pas mal de cas où le radar peut détecter des choses bien plus facilement que la vision (par exemple, objet transparent ou miroir)… La vision est en outre très sensible à certaines choses comme le brouillard, le soleil en pleine face, ou simplement un peu se saleté devant l’objectif…
Et inversement, il y a des choses que la vision peut détecter mais par le radar (par exemple, le gamin s’apprêtant à traverser la route, encore caché au radar par la vitre de l’abribus mais bien visible pour la caméra). D’où l’intérêt d’utiliser les deux, et en cas d’informations contradictoires, il faut pas se demander lequel à raison (les deux peuvent avoir raison, puisqu’il est absolument normal qu’ils ne voient pas la même chose !), mais privilégier le pire des cas : si un type de capteur signal un danger potentiel et pas l’autre, il faut tenir compte du signal de danger. C’est comme quand tu conduis toi : si tu vois un ballon arriver sur la route, tu as une partie du cerveau qui te dit « attention, danger de surgissement de gamin », même si tes yeux dissent encore « pas de souci, roule ». Et tu te poses pas la question de savoir qui a raison, tu ralentis immédiatement au cas où…
Et je parle même pas des PoC déjà publiées sur des moyens de complètement tromper la vision d’une IA, avec des modifications pourtant quasiment invisibles pour l’œil humain…
On se souvient également du gars qui s’était encastré sous un camion parce que la vision avait confondu la couleur du camion avec le ciel… Des radars ne font pas ce type de confusion…
Faut pas se leurrer, c’est une décision économique, et non parce qu’il serait plus efficace de n’utiliser qu’une seule source. Si c’était une question d’efficacité, le changement concernerait toute la gamme, là ça ne concerne que les deux modèles les moins chers…