Entraîner des robots à manipuler des objets mous et déformables

Entraîner des robots à manipuler des objets mous et déformables

Un nouvel environnement de simulation, PlasticineLab, est conçu pour rendre l’apprentissage des robots plus intuitif. Des tâches comme celles illustrées sont conçues pour former des agents à manipuler des objets mous et déformables ressemblant à ceux que l’on trouve dans le monde réel. Crédit : MIT-IBM Watson AI Lab.

Les robots peuvent résoudre un Rubik’s cube et naviguer sur le terrain accidenté de Mars, mais ils ont du mal avec des tâches simples comme dérouler un morceau de pâte ou manipuler une paire de baguettes. Même avec des montagnes de données, des instructions claires et une formation approfondie, ils ont du mal avec les tâches faciles à réaliser par un enfant.

Un nouvel environnement de simulation, PlasticineLab, est conçu pour rendre l’apprentissage des robots plus intuitif. En intégrant la connaissance du monde physique dans le simulateur, les chercheurs espèrent faciliter l’entraînement des robots à manipuler des objets et des matériaux du monde réel qui se plient et se déforment souvent sans revenir à leur forme d’origine. Développé par des chercheurs du MIT, du MIT-IBM Watson AI Lab et de l’Université de Californie à San Diego, le simulateur a été lancé lors de la Conférence internationale sur les représentations de l’apprentissage en mai.

Dans PlasticineLab, l’agent robot apprend à effectuer une série de tâches données en manipulant divers objets souples en simulation. Dans RollingPin, le but est d’aplatir un morceau de pâte en appuyant dessus ou en roulant dessus avec une épingle ; en Corde, enrouler une corde autour d’un pilier ; et dans Baguettes, pour ramasser une corde et la déplacer vers un emplacement cible.

Les chercheurs ont formé leur agent à effectuer ces tâches et d’autres plus rapidement que les agents formés avec des algorithmes d’apprentissage par renforcement, disent-ils, en intégrant la connaissance physique du monde dans le simulateur, ce qui leur a permis de tirer parti des techniques d’optimisation basées sur la descente de gradient pour trouver le meilleur solution.

« La programmation d’une connaissance de base de la physique dans le simulateur rend le processus d’apprentissage plus efficace », déclare l’auteur principal de l’étude, Zhiao Huang, un ancien stagiaire du MIT-IBM Watson AI Lab qui est maintenant titulaire d’un doctorat. étudiant à l’Université de Californie à San Diego. « Cela donne au robot un sens plus intuitif du monde réel, qui est plein d’êtres vivants et d’objets déformables. »

« Cela peut prendre des milliers d’itérations pour qu’un robot maîtrise une tâche grâce à la technique d’essais et d’erreurs de l’apprentissage par renforcement, qui est couramment utilisée pour entraîner des robots en simulation », explique l’auteur principal de l’ouvrage, Chuang Gan, chercheur chez IBM. . « Nous montrons que cela peut être fait beaucoup plus rapidement en cuisant dans une certaine connaissance de la physique, ce qui permet au robot d’utiliser des algorithmes de planification basés sur le gradient pour apprendre. »

Les équations physiques de base sont intégrées à PlasticineLab via un langage de programmation graphique appelé Taichi. TaiChi et un simulateur antérieur sur lequel PlasticineLab est construit, ChainQueen, ont été développés par le co-auteur de l’étude Yuanming Hu. Grâce à l’utilisation d’algorithmes de planification basés sur des gradients, l’agent de PlasticineLab est capable de comparer en permanence son objectif aux mouvements qu’il a effectués jusqu’à ce point, ce qui permet des corrections de trajectoire plus rapides.

« Nous pouvons trouver la solution optimale grâce à la rétro-propagation, la même technique utilisée pour former les réseaux de neurones », explique le co-auteur de l’étude Tao Du, un doctorat. étudiant au MIT. « La rétropropagation donne à l’agent le retour d’informations dont il a besoin pour mettre à jour ses actions afin d’atteindre son objectif plus rapidement. »

Le travail fait partie d’un effort continu visant à doter les robots de plus de bon sens afin qu’ils soient un jour capables de cuisiner, de nettoyer, de plier le linge et d’effectuer d’autres tâches banales dans le monde réel.


Un robot qui apprend tout seul à marcher grâce à l’apprentissage par renforcement


Plus d’information:
PlasticineLab : une référence de manipulation du corps mou avec une physique différentiable. arXiv:2104.03311 [cs.LG] arxiv.org/abs/2104.03311

Fourni par le Massachusetts Institute of Technology

Cette histoire est republiée avec l’aimable autorisation de MIT News (web.mit.edu/newsoffice/), un site populaire qui couvre l’actualité de la recherche, de l’innovation et de l’enseignement du MIT.

Citation: Entraîner des robots à manipuler des objets mous et déformables (2021, 10 juin) récupéré le 10 juin 2021 sur https://techxplore.com/news/2021-06-robots-soft-deformable.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.