Suivre les animaux avec l’apprentissage en profondeur

Il est temps de socialiser : suivre les animaux grâce à l'apprentissage en profondeur

Credit: Ecole Polytechnique Federale de Lausanne

Des chercheurs de l’EPFL ont fait des progrès dans le suivi animalier assisté par ordinateur en étendant leur logiciel, DeepLabCut, pour offrir un suivi haute performance de plusieurs animaux dans des vidéos.

La capacité de capturer le comportement des animaux est essentielle pour les neurosciences, l’écologie et de nombreux autres domaines. Les caméras sont idéales pour capturer un comportement à grain fin, mais développer des techniques de vision par ordinateur pour extraire le comportement de l’animal est un défi, même si cela semble sans effort pour notre propre système visuel.

L’un des aspects clés de la quantification du comportement animal est “l’estimation de la pose”, qui fait référence à la capacité d’un ordinateur à identifier la pose (position et orientation des différentes parties du corps) d’un animal. En laboratoire, il est possible d’aider à l’estimation de la pose en plaçant des marqueurs sur le corps de l’animal, comme dans les techniques de capture de mouvement utilisées dans les films (pensez à Gollum dans le Seigneur des Anneaux). Mais comme on peut l’imaginer, amener les animaux à porter un équipement spécialisé n’est pas la tâche la plus facile, et carrément impossible et contraire à l’éthique dans la nature.

Pour cette raison, les professeurs Alexander Mathis et Mackenzie Mathis de l’EPFL ont été les pionniers du suivi “sans marqueur” pour les animaux. Leur logiciel s’appuie sur l’apprentissage en profondeur pour “apprendre” aux ordinateurs à effectuer une estimation de pose sans avoir besoin de marqueurs physiques ou virtuels.

Leurs équipes ont développé DeepLabCut, un “package d’estimation de pose d’animaux” open source et d’apprentissage en profondeur qui peut effectuer une capture de mouvement sans marqueur d’animaux. En 2018, ils ont lancé DeepLabCut, et le logiciel a gagné en popularité dans les sciences de la vie : plus de 350 000 téléchargements du logiciel et près de 1 400 citations. Puis, en 2020, les équipes Mathis ont lancé DeepLabCut-Live!, une version temps réel à faible latence de DeepLabCut qui permet aux chercheurs de donner rapidement un retour aux animaux qu’ils étudient.







Credit: Ecole Polytechnique Federale de Lausanne

Maintenant, les scientifiques ont étendu DeepLabCut pour relever un autre défi dans l’estimation de la pose : suivre les animaux sociaux, même ceux qui interagissent étroitement ; par exemple, élever des souris ou élever des poissons en bancs. Les défis ici sont évidents : les animaux individuels peuvent être si similaires qu’ils confondent l’ordinateur, ils peuvent s’obscurcir les uns les autres, et il peut y avoir de nombreux “points clés” que les chercheurs souhaitent suivre, ce qui rend le traitement informatique difficile à traiter efficacement.

Pour relever ce défi, ils ont d’abord créé quatre ensembles de données de difficulté variable pour l’analyse comparative des réseaux d’estimation de pose multi-animaux. Les ensembles de données, collectés avec des collègues du MIT et de l’Université de Harvard, se composent de trois souris dans un champ ouvert, de parents en cage chez des souris, de paires de ouistitis hébergés dans une grande enceinte et de quatorze poissons dans un réservoir à écoulement. Avec ces ensembles de données en main, les chercheurs ont pu développer de nouvelles méthodes pour faire face aux difficultés du suivi dans le monde réel.

DeepLabCut relève ces défis en intégrant de nouvelles architectures de réseau, un assemblage basé sur les données (quel point clé appartient à quel animal) et des méthodes de suivi de pose sur mesure. Plus précisément, les chercheurs ont créé un nouveau réseau neuronal multitâche qui prédit les points clés, les membres, ainsi que l’identité de l’animal directement à partir d’images uniques. Ils ont également développé un algorithme d’assemblage “agnostique” au plan corporel, ce qui est très important lorsque l’on travaille avec des animaux dont la forme corporelle peut varier considérablement. Ces méthodes ont été validées sur des plans corporels allant du poisson au primate.

De plus, les scientifiques ont développé une méthode pour identifier les animaux individuels à partir d’une vidéo sans aucune donnée d’identité “vérité terrain”. “Imaginez la difficulté d’identifier avec fiabilité quelle souris de laboratoire est laquelle”, explique Mackenzie Mathis. “Ils ressemblent tellement à l’œil humain que cette tâche est presque impossible.”

Le nouvel algorithme est basé sur un apprentissage métrique avec des transformateurs de vision et permet même aux scientifiques de ré-identifier les animaux et de continuer à les suivre lorsque plusieurs animaux se cachent et réapparaissent plus tard. Les chercheurs ont également utilisé une approche basée sur l’apparence pour analyser le comportement de paires de marmousets sur neuf heures de vidéo, soit près d’un million d’images. L’une des conclusions de cette approche était que les ouistitis, une espèce très sociale, aiment regarder ensemble dans des directions similaires.

“Des centaines de laboratoires à travers le monde utilisent DeepLabCut et l’ont utilisé pour tout analyser, des expressions faciales chez les souris à l’atteinte des primates”, déclare Alexander Mathis. “J’ai vraiment hâte de voir ce que la communauté va faire avec la boîte à outils élargie qui permet l’analyse des interactions sociales.”


DeepLabCut-Live ! Capture de mouvement sans marqueur en temps réel pour les animaux


Plus d’information:
Jessy Lauer et al, Estimation, identification et suivi de la pose de plusieurs animaux avec DeepLabCut, Méthodes naturelles (2022). DOI : 10.1038 / s41592-022-01443-0

Provided by
Ecole Polytechnique Federale de Lausanne

Citation: Il est temps de se socialiser : Suivi des animaux avec apprentissage en profondeur (2022, 22 avril) récupéré le 22 avril 2022 sur https://techxplore.com/news/2022-04-social-tracking-animals-deep.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.