La façon dont les véhicules autonomes sont actuellement programmés peut ne pas être sûre parce que les programmes copient les humains, selon un professeur d’informatique dans l’état où le premier décès de piétons s’est produit lors d’une collision avec une voiture Uber sans conducteur.
« Google, Uber et d’autres sur le terrain utilisent les humains pour enseigner aux voitures comment conduire », explique Aviral Shrivastava, professeur agrégé d’informatique à l’Ira A. Fulton Schools of Engineering de l’Arizona State University. « Et c’est ça le problème. Ils apprennent des conducteurs humains, qui sont tous faillibles, et les voitures autonomes reflètent à leur tour nos comportements de conduite dangereuse ».
Shrivastava est connu sur le campus pour son cours d’informatique embarquée qui met les étudiants au défi de concevoir une voiture de course auto-vigilante et évitant les obstacles avec GPS, un système d’arpentage au laser (LIDAR), une unité de mesure inertielle pour calculer les distances et d’autres outils de détection utilisés dans les véhicules autonomes à grande échelle.
« L’industrie automobile autonome tente d’établir une ligne de démarcation entre une expérience de conduite humaine et une sécurité garantie. À l’heure actuelle, la familiarité de la conduite humaine est la norme et met la sécurité en danger « , ajoute-t-il.
Un accident mortel impliquant un véhicule Uber et un piéton plus tôt ce mois-ci à Tempe, en Arizona, a amené Uber à suspendre ses opérations sans chauffeur en Arizona. Lundi, le gouverneur. Doug Ducey a suspendu les tests d’Uber sur les voitures auto-portées sur les routes de l’Arizona.
La vidéo captée par le véhicule juste avant l’accident du 18 mars montre que le piéton traversait la route, à l’extérieur d’une allée piétonnière, dans l’obscurité. Les lumières de la voiture, les lampadaires et l’éclairage ambiant n’ont pas réussi à éclairer le piéton.
« Comme la voiture Uber ne pouvait rien détecter dans la zone sombre, elle a fait ce qu’un conducteur humain aurait pu faire – elle a procédé comme s’il n’y avait personne sur la route. Lorsque les phares de la voiture ont soudainement mis la femme en évidence, la voiture roulait trop vite pour s’arrêter « , a dit Shrivastava.
Shrivastava affirme qu’un véhicule autonome ne devrait rouler qu’à la vitesse à laquelle il peut s’arrêter avant la fin de sa portée visuelle – le véhicule devrait rouler assez lentement pour qu’il puisse s’arrêter instantanément si un obstacle se manifeste soudainement.
« Dans une situation comme celle de l’avenue Mill, l’ordinateur d’un véhicule axé sur la sécurité supposerait qu’il y a un obstacle dans la zone non éclairée et agirait en conséquence, contrairement aux humains qui supposent souvent que la voie à suivre est libre « , a-t-il dit.
Le chef de la police de Tempe, Sylvia Moir, a laissé entendre que le véhicule n’était pas en faute. « Je soupçonne provisoirement qu’il semble que l’Uber ne serait probablement pas en faute dans cet accident « , a-t-il dit, concluant que, peu importe si le véhicule était conduit par un humain ou de façon autonome, » il est très clair qu’il aurait été difficile d’éviter cette collision dans n’importe quel mode basé sur la façon dont elle est venue de l’ombre jusqu’à la chaussée « .
Cependant, les attentes à l’égard d’un conducteur humain et de voitures autonomes sont très différentes, selon Shrivastava.
« Si un conducteur humain cause un accident, c’est malheureux mais normal « , a-t-il dit. « Si une voiture autonome cause un accident, c’est inacceptable, et elle peut fermer toute l’industrie automobile autonome. »
« Tant que les comportements humains seront à la base de la technologie de conduite automatisée, la sécurité continuera d’être un problème « , a ajouté M. Shrivastava. « La priorité pour les voitures autonomes devrait être la sécurité, plutôt qu’une expérience de conduite humaine. »
La recherche de Shrivastava, financée par le National Institute of Standards and Technology et la National Science Foundation, se concentre sur la conception de systèmes cyberphysiques – des mécanismes tels que des véhicules autonomes dans lesquels un ordinateur contrôle un système physique – qui garantissent le comportement des systèmes.
« Par exemple, nous regardons comment nous pouvons construire une voiture dans laquelle il y a une garantie que si un obstacle est détecté, les freins seront serrés en l’espace d’une milliseconde, » explique Shrivasta.
Récemment, Shrivastava a développé un algorithme pour les voitures autonomes qui promet de doubler le débit des intersections de trafic, « qui sont vraiment le goulot d’étranglement le plus important dans le trafic urbain », a-t-il dit. Alors que le système ne fonctionnera que sur des routes entièrement autonomes, « les communications et les calculs que nous avons développés permettront aux voitures autonomes de traverser les intersections à pleine vitesse ou avec un ralentissement mineur ».