La voiture autonome n’est toujours pas sous contrôle

Un accident qui soulève beaucoup de questions

Le récent accident mortel impliquant Uber a mis en lumière les imperfections de la voiture autonome actuelle, alors même que l’on attend d’elle qu’elle fasse baisser la mortalité routière. Un accident qui soulève beaucoup de questions sur le développement de la voiture autonome et sur sa maîtrise.

Annoncée au plus tôt pour 2019 par les plus optimistes — nous ne croyons pas à cette échéance —, la voiture autonome suscite beaucoup d’attentes de la part des constructeurs automobiles, des municipalités, des responsables de la sécurité routière et des passagers. Ce véhicule doté d’intelligence artificielle est censé faciliter et fluidifier la mobilité urbaine dans les mégapoles, dont la plupart veulent bouter les voitures particulières hors des rues. L’autre enjeu sera celui de la réduction de la mortalité routière, puisqu’aujourd’hui 94 % des accidents sont le résultat d’une erreur humaine.

Malheureusement, depuis le 18 mars 2018, cette belle confiance en la voiture robotisée a volé en éclats. Ce jour-là, dans la ville de Tempe (Arizona), un véhicule autonome Uber a percuté Elaine Herzberg, une femme de 49 ans qui traversait une avenue en poussant son vélo. Et pourtant, le temps était clair et la route dégagée de toute circulation. Certes, Elaine Herzberg avait traversé en dehors du passage protégé, à un endroit dépourvu d’éclairage public et le véhicule Uber roulait à 61 km/h au lieu des 56 km/h autorisés sur ce tronçon. Mais la conductrice de sécurité, qui vaquait apparemment à d’autres occupations, n’a pas eu le temps de procéder à une manœuvre d’évitement, tandis que le véhicule autonome n’a pas réagi non plus.

Après ce drame, Uber a stoppé tous ses tests routiers. L’état de l’Arizona est allé plus loin en retirant son agrément au leader du VTC. Dans la foulée, Toyota et nuTonomy ont également mis leurs essais en pause.

Uber-Volvo-autonome-WEB.jpg
(© Uber)

Outre une défaillance humaine, c’est la fiabilité de la technologie qui est pointée du doigt. Comment le Volvo XC90 d’Uber impliqué dans la collision n’a-t-il pas pu détecter Elaine Herzberg ? Ce véhicule était pourtant bardé de capteurs et de caméras, avec notamment un Lidar sur le toit, un radar dans la calandre et un logiciel maison de conduite autonome. De plus, le Volvo XC90 de série dispose de toute une panoplie de technologies permettant de prévenir et d’éviter une collision. Manifestement, tout cet équipement de série a dû être déconnecté pour donner la main au système maison d’Uber.

Beaucoup de capteurs, et beaucoup de limitations

Une voiture autonome est un mille-feuille de capteurs en tout genre qu’il faut faire cohabiter ; le plus important d’entre eux est le Lidar.

LIDAR-DARPA-WEB.jpg
(© DARPA)

Ce Lidar fonctionne avec 64 lasers contenus dans le cylindre qui évolue à 360 degrés pour cartographier l’environnement en 3D. Il présente quelques lacunes de fonctionnement, notamment sous la pluie ou la neige où ses performances sont limitées. Il est en outre incapable de reconnaître les formes. On lui adjoint donc un radar, généralement positionné dans la calandre… qui lui aussi a ses limites, en l’occurrence une faible portée. Quant aux caméras, les derniers capteurs de la panoplie, leurs optiques sont de plus en plus performantes. On pense notamment à l’Israélien Mobileye, l’un des leaders du marché. Mais ces caméras qui se multiplient sur les toits des voitures autonomes ont aussi leur talon d’Achille : elles sont fixes. Difficile pour elles de voir ce qui se passe tout autour de la voiture. Un autre accident — qui s’est encore déroulé dans la ville de Tempe un an auparavant — en est le meilleur exemple : un SUV Volvo XC90 d’Uber s’était retrouvé sur le flanc après s’être fait griller la priorité par un véhicule classique. Uber avait été dédouané, mais cet incident soulevait déjà le problème de la technologie autonome et des limites de ses capteurs.

Une intelligence artificielle… façonnée par l’Homme

Dans cette débauche technologique, on trouve bien entendu de l’Intelligence Artificielle (ou IA). Une intelligence artificielle dont on attend tellement qu’elle doit être capable de tout. De fait, elle constituera le coupable idéal en cas de défaillance d’un véhicule. D’ailleurs, suite à la collision mortelle de Tempe, Nvidia a également stoppé ses propres essais de voitures autonomes sur routes ouvertes et a précisé qu’Uber utilisait effectivement des “technologies Nvidia”, à savoir les processeurs, mais qu’en aucun cas le logiciel de conduite autonome Nvidia Drive n’était impliqué.

Alors coupable ou infaillible l’IA ? Pour faire fonctionner l’intelligence artificielle, il faut surtout bien la programmer et la “nourrir”. Or cette programmation a été écrite par un humain, un être susceptible de commettre des erreurs qui risquent de provoquer des anomalies du système.

Rouler pour acquérir de l’expériencePour que l’intelligence artificielle des voitures autonomes progresse, il n’y a pas de secret, il faut rouler, et encore rouler pour que le système puisse enregistrer et analyser le maximum de scénarios. Actuellement, le plus gros rouleur reste Waymo (Alphabet) avec pas moins de 3,2 millions de kilomètres parcourus en 2017, soit un total de plus de 8 millions depuis le début de l’aventure en 2009. Et N’oublions pas les 4,3 milliards de kilomètres effectués en simulateurs. L’entreprise déclare posséder une base de données comportant 20 000 scénarios issus de tests effectués sur routes fermées. Toujours sur 2017, Waymo a déclaré 63 désengagements, c’est-à-dire des moments où le conducteur de sécurité a dû reprendre le volant pour faire face à une situation d’urgence. Ainsi le taux d’erreurs où l’humain est intervenu est passé de 0,20 % à 0,18 %.

Waymo Chrysler WEB.jpg
(© Waymo)

D’ailleurs, en parlant de scénarios, des chercheurs de l’Institut de Biomécanique Humaine Georges Charpak et de l’Institut Français des Sciences et Technologies des Transports, de l’Aménagement et des Réseaux se demandent si l’ont ne se limite pas trop en développant les systèmes de protection à partir de l’analyse “d’accidents provoqués par des erreurs humaines“. Ils ajoutent qu’il “est indispensable d’analyser en continu le comportement des véhicules automatisés sur les routes, pour mettre à jour les systèmes de sécurité” (source Sciences et Avenir). Le développement de l’IA des véhicules autonomes passe donc par l’étude des comportements humains, mais aussi par l’auto-analyse du comportement de l’IA et de ses erreurs.

Les statistiques parleront

Alors doit-on faire confiance à la voiture autonome ? Si les petits bugs des produits électroniques du quotidien sont souvent sans conséquence, ceux de la voiture autonome peuvent s’avérer dramatiques (panneau de vitesse mal lu, bretelle d’autoroute qui rend fou le système automatique, lignes blanches soudain absentes sur la route…). Pour faire accepter l’idée que la voiture autonome sera plus efficace que l’Homme, les différents acteurs de la conduite autonome devront certifier que leur IA est fiable à 100 %. Comme le fait remarquer cyniquement un confrère du site Fiches Auto, le meilleur système ne sera-t-il pas celui qui offrira “les meilleures statistiques d’accidents“, à savoir le moins de victimes ?

NTSB-accident-Uber-WEB.jpg
(© NTSB)

Et pour ajouter à la difficulté, n’oublions pas la difficile période de cohabitation avec les voitures classiques qui est estimée à une cinquantaine d’années selon Laurent Meillaud, rédacteur en chef du magazine Ingénieurs de l’automobile.

Malgré les avancées technologiques, le déploiement de la conduite autonome va s’avérer délicat et, à la lecture de cet article, vous comprenez pourquoi l’échéance de 2019 nous paraît bien difficile à tenir, si ce n’est totalement irréaliste. D’ailleurs, le cabinet PwC estime pour sa part que 2028 serait bien plus réaliste.

Laisser un commentaire

Votre adresse email ne sera pas publiée.