Comment la technologie d’imagerie oculaire pourrait aider les robots et les voitures à mieux voir

Comment la technologie d'imagerie oculaire pourrait aider les robots et les voitures à mieux voir

Les chercheurs de Duke ont montré qu’une nouvelle approche du LiDAR peut être suffisamment sensible pour capturer des caractéristiques à l’échelle millimétrique telles que celles d’un visage humain. Crédit : Ruobing Qian, Duke University

Même si les robots n’ont pas d’yeux avec des rétines, la clé pour les aider à voir et à interagir avec le monde plus naturellement et en toute sécurité peut résider dans les appareils de tomographie par cohérence optique (OCT) que l’on trouve couramment dans les cabinets d’ophtalmologistes.

L’une des technologies d’imagerie que de nombreuses entreprises de robotique intègrent dans leurs ensembles de capteurs est la détection et la télémétrie de la lumière, ou LiDAR en abrégé. Attirant actuellement beaucoup d’attention et d’investissements de la part des développeurs de voitures autonomes, l’approche fonctionne essentiellement comme un radar, mais au lieu d’envoyer de larges ondes radio et de rechercher des réflexions, elle utilise de courtes impulsions de lumière provenant de lasers.

Le LiDAR traditionnel à temps de vol présente cependant de nombreux inconvénients qui le rendent difficile à utiliser dans de nombreuses applications de vision 3D. Parce qu’il nécessite la détection de signaux lumineux réfléchis très faibles, d’autres systèmes LiDAR ou même la lumière du soleil ambiante peuvent facilement submerger le détecteur. Il a également une résolution de profondeur limitée et peut prendre un temps dangereusement long pour balayer de manière dense une grande surface telle qu’une autoroute ou un sol d’usine. Pour relever ces défis, les chercheurs se tournent vers une forme de LiDAR appelée LiDAR à onde continue modulée en fréquence (FMCW).

« FMCW LiDAR partage le même principe de fonctionnement que l’OCT, que le domaine du génie biomédical développe depuis le début des années 1990 », a déclaré Ruobing Qian, titulaire d’un doctorat. étudiant travaillant dans le laboratoire de Joseph Izatt, professeur émérite Michael J. Fitzpatrick de génie biomédical à Duke. “Mais il y a 30 ans, personne ne savait que les voitures ou les robots autonomes seraient une chose, donc la technologie s’est concentrée sur l’imagerie tissulaire. Maintenant, pour la rendre utile pour ces autres domaines émergents, nous devons échanger ses capacités de résolution extrêmement élevée contre plus de distance. et la vitesse.”

Dans un article paru le 29 mars dans la revue Communication Naturel’équipe Duke démontre comment quelques astuces tirées de leurs recherches OCT peuvent améliorer de 25 fois le débit de données FMCW LiDAR précédent tout en atteignant une précision de profondeur inférieure au millimètre.

L’OCT est l’analogue optique des ultrasons, qui fonctionne en envoyant des ondes sonores dans des objets et en mesurant le temps qu’elles mettent à revenir. Pour chronométrer les temps de retour des ondes lumineuses, les appareils OCT mesurent de combien leur phase s’est décalée par rapport à des ondes lumineuses identiques qui ont parcouru la même distance mais n’ont pas interagi avec un autre objet.







Les chercheurs de Duke ont montré qu’une nouvelle approche du LiDAR peut traiter les données assez rapidement pour capturer des fonctionnalités importantes pour les véhicules autonomes et les systèmes de fabrication. Crédit : Ruobing Qian, Duke University

FMCW LiDAR adopte une approche similaire avec quelques ajustements. La technologie envoie un faisceau laser qui se déplace continuellement entre différentes fréquences. Lorsque le détecteur recueille la lumière pour mesurer son temps de réflexion, il peut faire la distinction entre le modèle de fréquence spécifique et toute autre source lumineuse, ce qui lui permet de fonctionner dans toutes sortes de conditions d’éclairage à très grande vitesse. Il mesure ensuite tout déphasage par rapport aux faisceaux non entravés, ce qui est un moyen beaucoup plus précis de déterminer la distance que les systèmes LiDAR actuels.

“Il a été très excitant de voir comment la technologie d’imagerie biologique à l’échelle des cellules sur laquelle nous travaillons depuis des décennies est directement traduisible pour une vision 3D en temps réel à grande échelle”, a déclaré Izatt. “Ce sont exactement les capacités nécessaires aux robots pour voir et interagir avec les humains en toute sécurité ou même pour remplacer les avatars par une vidéo 3D en direct en réalité augmentée.”

La plupart des travaux antérieurs utilisant LiDAR reposaient sur des miroirs rotatifs pour balayer le laser sur le paysage. Bien que cette approche fonctionne bien, elle est fondamentalement limitée par la vitesse du miroir mécanique, quelle que soit la puissance du laser utilisé.

Les chercheurs de Duke utilisent à la place un réseau de diffraction qui fonctionne comme un prisme, décomposant le laser en un arc-en-ciel de fréquences qui s’étalent à mesure qu’ils s’éloignent de la source. Étant donné que le laser d’origine balaye encore rapidement une gamme de fréquences, cela se traduit par un balayage du faisceau LiDAR beaucoup plus rapide qu’un miroir mécanique ne peut tourner. Cela permet au système de couvrir rapidement une large zone sans perdre beaucoup de profondeur ou de précision de localisation.

Alors que les dispositifs OCT sont utilisés pour profiler des structures microscopiques jusqu’à plusieurs millimètres de profondeur dans un objet, les systèmes de vision 3D robotiques n’ont besoin que de localiser les surfaces d’objets à l’échelle humaine. Pour ce faire, les chercheurs ont réduit la gamme de fréquences utilisées par l’OCT et n’ont recherché que le signal de crête généré à partir des surfaces des objets. Cela coûte un peu de résolution au système, mais avec une portée et une vitesse d’imagerie bien supérieures à celles du LiDAR traditionnel.

Le résultat est un système FMCW LiDAR qui atteint une précision de localisation inférieure au millimètre avec un débit de données 25 fois supérieur aux démonstrations précédentes. Les résultats montrent que l’approche est suffisamment rapide et précise pour capturer les détails des parties du corps humain en mouvement, comme une tête qui hoche la tête ou une main serrée, en temps réel.

“De la même manière que les caméras électroniques sont devenues omniprésentes, notre vision est de développer une nouvelle génération de caméras 3D basées sur LiDAR qui sont suffisamment rapides et capables de permettre l’intégration de la vision 3D dans toutes sortes de produits”, a déclaré Izatt. “Le monde qui nous entoure est en 3D, donc si nous voulons que les robots et autres systèmes automatisés interagissent avec nous naturellement et en toute sécurité, ils doivent pouvoir nous voir aussi bien que nous pouvons les voir.”


De minuscules commutateurs donnent une résolution d’enregistrement LiDAR à semi-conducteurs


Plus d’information:
Ruobing Qian et al, télémétrie cohérente 3D multiplexée temps-fréquence haute précision à débit vidéo, Communication Nature (2022). DOI : 10.1038/s41467-022-29177-9

Fourni par Duke University

Citation: Comment la technologie d’imagerie oculaire pourrait aider les robots et les voitures à mieux voir (29 mars 2022) récupéré le 29 mars 2022 sur https://techxplore.com/news/2022-03-eye-imaging-technology-robots-cars.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.