Une nouvelle étude publiée dans les Actes de l'Académie nationale des sciences des États-Unis démontre que les véhicules autonomes (VA) entraînés à penser davantage comme les humains, notamment à reconnaître et à évaluer la vulnérabilité des usagers de la route, sont nettement plus sûrs dans les scénarios à haut risque.
Dotés de ce que les chercheurs ont appelé la « sensibilité sociale », les véhicules ont permis de réduire les dommages globaux lors des accidents de plus de 17 %, les dommages causés aux piétons, aux cyclistes et aux autres groupes vulnérables étant réduits de plus de 50 %.
Le raisonnement humain et la précision des machines bientôt réunis dans les véhicules autonomes
Les véhicules autonomes sont présentés comme l'avenir des transports sûrs et efficaces. Cependant, à mesure que leur développement se poursuit, des questions éthiques continuent d'émerger, notamment dans les situations critiques.
L'étude menée par Hongliang Lu de l'Université des sciences et technologies de Hong Kong suggère que doter les voitures autonomes d'une conscience sociale pourrait réduire considérablement les accidents de la routedentCette recherche intègre des connaissances issues des neurosciences et de la psychologie comportementale à la programmation des véhicules autonomes.
Le modèle a été intégré au cadre décisionnel existant appelé EthicalPlanner, permettant aux véhicules autonomes de se comporter de manière à non seulement éviter les collisions, mais aussi à minimiser les dommages lorsqu'un accident est inévitable.
L'IA privilégie la protection des usagers de la route les plus vulnérables, ce qui représente un changement majeur par rapport au modèle conventionnel qui traite souvent tous les objets ou personnes de manière égale d'un point de vue purement mécanique en matière de risque.
Daniela Rus, directrice du Laboratoire d'informatique et d'intelligence artificielle du Massachusetts Institute of Technology (MIT), a salué l'approche, déclarant : « Le cadre proposé offre une voie potentielle vers des véhicules autonomes capables de naviguer dans des scénarios complexes à plusieurs agents en ayant conscience des différents niveaux de vulnérabilité des usagers de la route. »
Les véhicules autonomes ont fait l'objet de critiques concernant leurs angles morts éthiques et lesdent
Le besoin d'innovations de ce type découle de tragédies bien réelles qui ont affecté des vies et des entreprises. Par exemple, en 2018, un véhicule autonome d'essai d'Uber a percuté et tué un piéton en Arizona, soulignant la nécessité pour les véhicules autonomes de prendre des décisions nuancées en temps réel.
De même, de Tesla a fait l’objet d’un examen minutieux après plusieurs accidents très médiatisés, dont des collisions mortelles impliquant ses systèmes semi-autonomes.
Par ailleurs, General Motors a fermé sa filiale de taxis autonomes, Cruise, après une série de revers, dont un grave accidentdentdentdent dentdentdentdent dentdentCependant, le tollé suscité par l'accident a contribué à l'annonce de la fermeture, après des investissements de plusieurs milliards de dollars.
Cependant, Waymo, le projet de voiture autonome de Google, a réalisé des progrès considérables dans le déploiement de véhicules autonomes dotés de fonctionnalités de sécurité améliorées. Les véhicules Waymo auraient démontré une réduction de 96 % entre véhiculesdentaux intersections par rapport aux conducteurs humains.
Les robotaxis en plein essor
Waymo propose désormais des trajets sans conducteur dans des villes comme San Francisco, Phoenix et Los Angeles.
À l'échelle internationale, des villes comme Dubaï et Pékin investissent dans les transports publics autonomes dans le cadre de leurs objectifs de ville intelligente.
Malgré les inquiétudes suscitées par les véhicules autonomes, les services de taxis autonomes gagnent tracterrain, ce qui rend d'autant plus important le besoin de véhicules plus intelligents et plus sûrs.
Au-delà de la technologie, la prise de décision autonome soulève de sérieuses questions juridiques et morales. Si un système d'IA « choisit » de nuire à un usager de la route pour en sauver un autre, qui est responsable : le fabricant, l'ingénieur logiciel ou le propriétaire ? Les cadres juridiques à travers le monde peinent encore à appréhender la réalité de la prise de décision par les machines dans l'espace public.
Un groupe d'experts réuni par la Commission européenne a récemment appelé les constructeurs de véhicules autonomes à garantir une « répartition équitable des risques » et à respecter « la protection des droits fondamentaux, y compris ceux des utilisateurs vulnérables »

