Conduire dans la neige est un travail d’équipe pour les capteurs IA

Conduire dans la neige est un travail d'équipe pour les capteurs IA

La chaussée peut être difficile à trouver sur certaines routes d’hiver. La technologie des capteurs et le traitement d’image pourraient aider les véhicules autonomes à mieux naviguer dans des conditions enneigées. Crédit: Sarah Atkinson / Michigan Tech

Personne n’aime conduire dans une tempête de neige, y compris les véhicules autonomes. Pour rendre les voitures autonomes plus sûres sur les routes enneigées, les ingénieurs examinent le problème du point de vue de la voiture.

Un défi majeur pour les véhicules entièrement autonomes est la navigation par mauvais temps. La neige confond en particulier les données cruciales des capteurs qui aident un véhicule à mesurer la profondeur, à trouver les obstacles et à rester du bon côté de la ligne jaune, en supposant qu’elle soit visible. Avec en moyenne plus de 200 pouces de neige chaque hiver, la péninsule de Keweenaw au Michigan est l’endroit idéal pour pousser la technologie des véhicules autonomes à ses limites. Dans deux articles présentés à SPIE Defence + Commercial Sensing 2021, des chercheurs de la Michigan Technological University discutent de solutions pour des scénarios de conduite enneigés qui pourraient aider à offrir des options de conduite autonome dans des villes enneigées comme Chicago, Detroit, Minneapolis et Toronto.

Tout comme la météo parfois, l’autonomie n’est pas une désignation oui-non ensoleillée ou enneigée. Les véhicules autonomes couvrent un spectre de niveaux, des voitures déjà sur le marché avec avertissement d’angle mort ou assistance au freinage, aux véhicules qui peuvent basculer dans et hors des modes de conduite autonome, à d’autres qui peuvent naviguer entièrement par eux-mêmes. Les grands constructeurs automobiles et les universités de recherche peaufinent encore la technologie et les algorithmes de conduite autonome. Parfois, des accidents se produisent, soit en raison d’une mauvaise appréciation de l’intelligence artificielle (IA) de la voiture, soit d’une mauvaise utilisation par un conducteur humain des fonctions de conduite autonome.






Les humains ont aussi des capteurs: nos yeux scanneurs, notre sens de l’équilibre et du mouvement, et la puissance de traitement de notre cerveau nous aident à comprendre notre environnement. Ces intrants apparemment basiques nous permettent de conduire dans pratiquement tous les scénarios, même s’ils sont nouveaux pour nous, car le cerveau humain est doué pour généraliser de nouvelles expériences. Dans les véhicules autonomes, deux caméras montées sur des cardans scannent et perçoivent la profondeur en utilisant la vision stéréo pour imiter la vision humaine, tandis que l’équilibre et le mouvement peuvent être mesurés à l’aide d’une unité de mesure inertielle. Mais les ordinateurs ne peuvent réagir qu’aux scénarios qu’ils ont rencontrés auparavant ou qu’ils ont été programmés pour reconnaître.

Étant donné que les cerveaux artificiels ne sont pas encore là, les algorithmes d’intelligence artificielle (IA) spécifiques aux tâches doivent prendre le volant, ce qui signifie que les véhicules autonomes doivent s’appuyer sur plusieurs capteurs. Les caméras Fisheye élargissent la vue tandis que les autres caméras agissent un peu comme l’œil humain. L’infrarouge capte les signatures thermiques. Le radar peut voir à travers le brouillard et la pluie. La détection et la télémétrie de la lumière (lidar) transpercent l’obscurité et tissent une tapisserie au néon de fils de faisceau laser.

«Chaque capteur a des limites, et chaque capteur couvre le dos d’un autre», a déclaré Nathir Rawashdeh, professeur adjoint d’informatique au Michigan Tech’s College of Computing et l’un des principaux chercheurs de l’étude. Il travaille à rassembler les données des capteurs via un processus d’IA appelé fusion de capteurs.

«La fusion de capteurs utilise plusieurs capteurs de différentes modalités pour comprendre une scène», a-t-il déclaré. « Vous ne pouvez pas programmer de manière exhaustive pour chaque détail lorsque les entrées ont des modèles difficiles. C’est pourquoi nous avons besoin de l’IA. »

Les collaborateurs de Rawashdeh dans le Michigan Tech comprennent Nader Abu-Alrub, son doctorant en génie électrique et informatique, et Jeremy Bos, professeur adjoint de génie électrique et informatique, ainsi que des étudiants à la maîtrise et des diplômés du laboratoire de Bos: Akhil Kurup, Derek Chopp et Zach Jeffries. Bos explique que les capteurs lidar, infrarouges et autres sont à eux seuls comme le marteau d’un vieil adage. «  » Pour un marteau, tout ressemble à un clou «  », a déclaré Bos. « Eh bien, si vous avez un tournevis et un pistolet à riveter, alors vous avez plus d’options. »

La plupart des capteurs autonomes et des algorithmes de conduite autonome sont développés dans des paysages ensoleillés et clairs. Sachant que le reste du monde n’est pas comme l’Arizona ou le sud de la Californie, le laboratoire de Bos a commencé à collecter des données locales dans un véhicule autonome Michigan Tech (conduit en toute sécurité par un humain) lors de fortes chutes de neige. L’équipe de Rawashdeh, notamment Abu-Alrub, a déversé plus de 1000 images de données lidar, radar et image provenant de routes enneigées en Allemagne et en Norvège pour commencer à enseigner à leur programme d’intelligence artificielle à quoi ressemble la neige et comment voir au-delà.

«Toutes les neiges ne sont pas créées égales», a déclaré Bos, soulignant que la variété de la neige rend la détection des capteurs un défi. Rawashdeh a ajouté que le prétraitement des données et la garantie d’un étiquetage précis sont une étape importante pour assurer l’exactitude et la sécurité: « L’IA est comme un chef – si vous avez de bons ingrédients, il y aura un excellent repas », a-t-il déclaré. « Donnez au réseau d’apprentissage AI des données de capteur sales et vous obtiendrez un mauvais résultat. »

Les données de mauvaise qualité sont un problème, tout comme la saleté réelle. Tout comme la saleté de la route, l’accumulation de neige sur les capteurs est un problème résoluble mais gênant. Une fois la vue dégagée, les capteurs des véhicules autonomes ne sont toujours pas toujours d’accord sur la détection des obstacles. Bos a mentionné un excellent exemple de découverte d’un cerf tout en nettoyant les données recueillies localement. Lidar a déclaré que le blob n’était rien (30% de chance d’un obstacle), la caméra l’a vu comme un humain endormi au volant (50% de chance) et le capteur infrarouge a crié WHOA (90% sûr que c’est un cerf).

Faire en sorte que les capteurs et leurs évaluations des risques se parlent et apprennent les uns des autres est comme la parabole indienne de trois aveugles qui trouvent un éléphant: chacun touche une partie différente de l’éléphant – l’oreille, le tronc et la jambe de la créature – et arrive à un autre conclusion sur quel genre d’animal il s’agit. En utilisant la fusion de capteurs, Rawashdeh et Bos veulent que des capteurs autonomes déterminent collectivement la réponse – que ce soit un éléphant, un cerf ou un banc de neige. Comme le dit Bos, « Plutôt que de voter strictement, en utilisant la fusion de capteurs, nous proposerons une nouvelle estimation. »

Bien que la navigation dans une tempête de neige Keweenaw soit une solution pour les véhicules autonomes, leurs capteurs peuvent mieux se renseigner sur les intempéries et, avec des progrès tels que la fusion de capteurs, pourront un jour conduire en toute sécurité sur des routes enneigées.


De fortes pluies affectent la détection des objets par les capteurs LiDAR des véhicules autonomes


Fourni par l’Université technologique du Michigan

Citation: Conduire dans la neige est un effort d’équipe pour les capteurs d’IA (2021, 28 mai) récupéré le 28 mai 2021 sur https://techxplore.com/news/2021-05-team-effort-ai-sensors.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.