Perfectionner les voitures autonomes: est-ce possible?

par Ekaterina Komendantskaya, Luca Arnaboldi et Matthew Daggitt, The Conversation

Perfectionner les voitures autonomes - est-ce possible?

Crédits: posteriori / Shutterstock

Les véhicules robotiques sont utilisés dans des environnements dangereux depuis des décennies, depuis le démantèlement de la centrale nucléaire de Fukushima ou l’inspection des infrastructures d’énergie sous-marine en mer du Nord. Plus récemment, des véhicules autonomes, des bateaux aux chariots de livraison d’épicerie, ont fait la transition en douceur des centres de recherche vers le monde réel avec très peu de hoquet.

Pourtant, l’arrivée promise des voitures autonomes n’a pas dépassé le stade des tests. Et lors d’un essai routier d’une voiture autonome Uber en 2018, un piéton a été tué par le véhicule. Bien que ces accidents se produisent tous les jours lorsque des humains sont au volant, le public impose aux voitures sans conducteur des normes de sécurité beaucoup plus strictes, interprétant les accidents ponctuels comme la preuve que ces véhicules sont trop dangereux pour se déchaîner sur la voie publique.

La programmation de la voiture autonome parfaite qui prendra toujours la décision la plus sûre est une tâche énorme et technique. Contrairement aux autres véhicules autonomes, qui sont généralement déployés dans des environnements étroitement contrôlés, les voitures autonomes doivent fonctionner dans un réseau routier infiniment imprévisible, traitant rapidement de nombreuses variables complexes pour rester en sécurité.

Inspirés par le code de la route, nous travaillons sur un ensemble de règles qui aideront les voitures autonomes à prendre les décisions les plus sûres dans tous les scénarios imaginables. Vérifier que ces règles fonctionnent est le dernier obstacle que nous devons surmonter pour amener des voitures autonomes fiables en toute sécurité sur nos routes.

La première loi d’Asimov

L’auteur de science-fiction Isaac Asimov a écrit les «trois lois de la robotique» en 1942. La première et la plus importante loi est la suivante: «Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de nuire». Lorsque les voitures autonomes blessent des humains, elles violent clairement cette première loi.

Au National Robotarium, nous menons des recherches visant à garantir que les véhicules autonomes prendront toujours des décisions qui respectent cette loi. Une telle garantie apporterait la solution aux très graves problèmes de sécurité qui empêchent les voitures autonomes de décoller dans le monde entier.

Les logiciels d’IA sont en fait assez bons pour apprendre des scénarios auxquels ils n’ont jamais été confrontés. En utilisant des «réseaux neuronaux» qui s’inspirent de la configuration du cerveau humain, ces logiciels peuvent repérer des modèles dans les données, comme les mouvements des voitures et des piétons, puis les rappeler dans de nouveaux scénarios.

Mais nous devons encore prouver que toutes les règles de sécurité enseignées aux voitures autonomes fonctionneront dans ces nouveaux scénarios. Pour ce faire, nous pouvons nous tourner vers la vérification formelle: la méthode que les informaticiens utilisent pour prouver qu’une règle fonctionne en toutes circonstances.

En mathématiques, par exemple, les règles peuvent prouver que x + y est égal à y + x sans tester toutes les valeurs possibles de x et y. La vérification formelle fait quelque chose de similaire: elle nous permet de prouver comment les logiciels d’IA réagiront à différents scénarios sans que nous ayons à tester de manière exhaustive tous les scénarios qui pourraient se produire sur la voie publique.

L’un des succès récents les plus notables dans le domaine est la vérification d’un système d’IA qui utilise des réseaux de neurones pour éviter les collisions entre aéronefs autonomes. Les chercheurs ont réussi à vérifier formellement que le système répondra toujours correctement, quelles que soient les manœuvres horizontales et verticales de l’aéronef impliqué.






L’éthicien du robot Patrick Lin présente la complexité de la prise de décision automatisée dans les voitures autonomes.

Codage routier

Les conducteurs humains suivent un code de la route pour assurer la sécurité de tous les usagers de la route, qui s’appuie sur le cerveau humain pour apprendre ces règles et les appliquer judicieusement dans d’innombrables scénarios du monde réel. Nous pouvons également enseigner aux voitures autonomes le code de la route. Cela nous oblige à décocher chaque règle du code, à apprendre aux réseaux neuronaux des véhicules à comprendre comment obéir à chaque règle, puis à vérifier qu’ils peuvent être invoqués pour obéir en toute sécurité à ces règles en toutes circonstances.

Cependant, le défi de vérifier que ces règles seront respectées en toute sécurité est compliqué lorsque l’on examine les conséquences de l’expression «ne doit jamais» dans le code de la route. Pour rendre une voiture autonome aussi réactive qu’un conducteur humain dans un scénario donné, nous devons programmer ces politiques de manière à tenir compte des nuances, du risque pondéré et du scénario occasionnel où différentes règles sont en conflit direct, obligeant la voiture à ignorez un ou plusieurs d’entre eux.

Une telle tâche ne peut être laissée aux seuls programmeurs – elle nécessitera la participation d’avocats, d’experts en sécurité, d’ingénieurs système et de décideurs. Dans le cadre de notre nouveau projet AISEC, une équipe de chercheurs conçoit un outil pour faciliter le type de collaboration interdisciplinaire nécessaire pour créer des normes éthiques et juridiques pour les voitures autonomes.

Enseigner la perfection aux voitures autonomes sera un processus dynamique: dépendant de la manière dont les experts juridiques, culturels et technologiques définissent la perfection au fil du temps. L’outil AISEC est construit dans cette optique, offrant un «panneau de contrôle de mission» pour surveiller, compléter et adapter les règles les plus performantes régissant les voitures autonomes, qui seront ensuite mises à la disposition de l’industrie.

Nous espérons livrer le premier prototype expérimental de l’outil AISEC d’ici 2024. Mais nous devons encore créer des méthodes de vérification adaptatives pour résoudre les problèmes de sûreté et de sécurité qui subsistent, et celles-ci prendront probablement des années à être intégrées et intégrées dans les voitures autonomes.

Les accidents impliquant des voitures autonomes font toujours la une des journaux. Une voiture autonome qui reconnaît un piéton et s’arrête avant de le heurter 99% du temps est un motif de fête dans les laboratoires de recherche, mais une machine à tuer dans le monde réel. En créant des règles de sécurité robustes et vérifiables pour les voitures autonomes, nous essayons de faire de ce 1% des accidents une chose du passé.


Lier les voitures autonomes aux feux de circulation pourrait aider les piétons à leur donner le feu vert


Fourni par The Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l’article original.La conversation

Citation: Perfectionner les voitures autonomes: est-ce possible? (2021, 7 avril) récupéré le 13 avril 2021 sur https://techxplore.com/news/2021-04-self-driving-cars.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.