Un cadre pour améliorer l’apprentissage en profondeur en utilisant les premiers pics

Un cadre pour améliorer l'apprentissage en profondeur en utilisant les premiers pics

Photographie de la puce BrainScaleS-2 utilisée pour l’émulation. Cette puce de recherche neuromorphique à signaux mixtes est utilisée pour divers projets à Heidelberg et grâce à son accélérateur analogique, la plate-forme se caractérise par sa vitesse et son efficacité énergétique. Crédit : kip.uni-heidelberg.de/vision/

Des chercheurs de l’Université de Heidelberg et de l’Université de Berne ont récemment mis au point une technique permettant de réaliser des calculs rapides et écoénergétiques à l’aide de substrats neuromorphiques à pointes. Cette stratégie, présentée dans un article publié dans Nature Machine Intelligence, est une adaptation rigoureuse d’un schéma de codage time-to-first-spike (TTFS), ainsi qu’une règle d’apprentissage correspondante implémentée sur certains réseaux de neurones artificiels. TTFS est une approche de codage temporel, dans laquelle l’activité des neurones est inversement proportionnelle à leur délai de décharge.

“Il y a quelques années, j’ai commencé ma thèse de maîtrise dans le groupe Electronic Vision(s) à Heidelberg”, a déclaré à TechXplore Julian Goeltz, l’un des principaux chercheurs travaillant sur l’étude. “Le système neuromorphique BrainScaleS développé là-bas promettait d’être un substrat intrigant pour le calcul de type cérébral, étant donné que ses circuits de neurones et de synapses imitent la dynamique des neurones et des synapses dans le cerveau.”

Lorsque Goeltz a commencé à étudier à Heidelberg, les modèles d’apprentissage en profondeur pour les réseaux de pointes étaient encore relativement inexplorés et les approches existantes n’utilisaient pas très efficacement la communication basée sur les pointes entre les neurones. En 2017, Hesham Mostafa, chercheur à l’Université de Californie à San Diego, a introduit l’idée que la synchronisation des pics neuronaux individuels pourrait être utilisée pour le traitement de l’information. Cependant, la dynamique neuronale qu’il a décrite dans son article était encore assez différente des dynamiques biologiques et n’était donc pas applicable au matériel neuromorphique inspiré du cerveau.

“Nous devions donc proposer une variante compatible avec le matériel de la rétropropagation des erreurs, l’algorithme sous-jacent à la révolution moderne de l’IA, pour des temps de pointe uniques”, a expliqué Goeltz. “La difficulté résidait dans la relation plutôt compliquée entre les entrées et les sorties synaptiques des neurones à dopage.”

Initialement, Goeltz et ses collègues ont entrepris de développer un cadre mathématique qui pourrait être utilisé pour aborder le problème de l’apprentissage en profondeur basé sur le codage temporel dans les réseaux de neurones à pointes. Leur objectif était ensuite de transférer cette approche et les résultats qu’ils ont recueillis sur le système BrainScaleS, un système informatique neuromorphique renommé qui émule des modèles de neurones, de synapses et de plasticité cérébrale.

“Supposons que nous ayons un réseau en couches dans lequel la couche d’entrée reçoit une image, et après plusieurs couches de traitement, la couche supérieure doit reconnaître l’image comme étant un chat ou un chien”, Laura Kriener, la deuxième chercheuse principale de l’étude , a déclaré TechXplore. « Si l’image était un chat, mais que le neurone « chien » de la couche supérieure est devenu actif, le réseau doit apprendre que sa réponse était fausse. En d’autres termes, le réseau doit modifier les connexions, c’est-à-dire les synapses, entre les neurones. de telle sorte que la prochaine fois qu’il voit la même image, le neurone “chien” reste silencieux et le neurone “chat” est actif.”

Le problème décrit par Kriener et abordé dans l’article récent, connu sous le nom de « problème d’attribution de crédit », implique essentiellement de comprendre quelles synapses dans un réseau de neurones sont responsables de la sortie ou de la prédiction d’un réseau, et quelle part du crédit chaque synapse devrait prendre pour une prédiction donnée.

Pour identifier les synapses impliquées dans la mauvaise prédiction d’un réseau et résoudre le problème, les chercheurs utilisent souvent ce que l’on appelle l’algorithme de rétropropagation d’erreurs. Cet algorithme fonctionne en propageant une erreur dans la couche supérieure d’un réseau de neurones à travers le réseau, pour informer les synapses de leur propre contribution à cette erreur et modifier chacune d’elles en conséquence.

Lorsque les neurones d’un réseau communiquent via des pointes, chaque pointe d’entrée « augmente ou diminue » le potentiel d’un neurone. La taille de cette « bosse » dépend du poids d’une synapse donnée, connue sous le nom de « poids synaptique ».

“Si suffisamment de bosses ascendantes s’accumulent, le neurone” se déclenche “-il envoie lui-même une pointe à ses partenaires”, a déclaré Kriener. “Notre cadre indique efficacement à une synapse exactement comment modifier son poids pour atteindre un temps de pointe de sortie particulier, compte tenu des erreurs de synchronisation des neurones dans les couches ci-dessus, de la même manière que l’algorithme de rétropropagation, mais pour les neurones de pointe. De cette façon, la totalité de la pointe l’activité d’un réseau peut être façonnée de la manière souhaitée, ce qui, dans l’exemple ci-dessus, provoquerait le déclenchement précoce du neurone « chat » et le maintien du silence ou le déclenchement ultérieur du neurone « chien ».

En raison de sa nature basée sur les pointes et du matériel utilisé pour l’implémenter, le cadre développé par Goeltz, Kriener et leurs collègues présente une vitesse et une efficacité remarquables. De plus, le cadre encourage les neurones à effectuer un pic le plus rapidement possible et une seule fois. Par conséquent, le flux d’informations est à la fois rapide et clairsemé, car très peu de données doivent traverser un réseau de neurones donné pour lui permettre d’accomplir une tâche.

“Le matériel BrainScaleS amplifie encore ces caractéristiques, car sa dynamique neuronale est extrêmement rapide – 1000 fois plus rapide que celle du cerveau – ce qui se traduit par une vitesse de traitement de l’information proportionnellement plus élevée”, a expliqué Kriener. « De plus, les neurones et synapses de silicium sont conçus pour consommer très peu d’énergie pendant leur fonctionnement, ce qui entraîne l’efficacité énergétique de nos réseaux neuromorphiques.

Un cadre pour améliorer l'apprentissage en profondeur en utilisant les premiers pics

Illustration du processus de classification sur puce. Les traces dans les huit panneaux montrent les tensions membranaires des neurones de classification. Le pic pointu est lorsque le neurone pointe. Notre algorithme vise à avoir d’abord le pic de neurone marqueur « correct » tout en retardant les pics des autres neurones marqueurs. Plusieurs enregistrements pour chaque trace montrent la variation due à la nature analogique du circuit, mais néanmoins l’algorithme réussit à s’entraîner. Crédit : Goltz et al.

Les résultats pourraient avoir des implications importantes pour la recherche et le développement. En plus d’éclairer d’autres études, ils pourraient, en fait, ouvrir la voie au développement d’outils informatiques neuromorphiques plus rapides et plus efficaces.

« En ce qui concerne le traitement de l’information dans le cerveau, une question de longue date est : pourquoi les neurones de notre cerveau communiquent-ils avec des pointes ? Ou en d’autres termes, pourquoi l’évolution a-t-elle favorisé cette forme de communication ? » MA Petrovici, le chercheur principal de l’étude, a déclaré à TechXplore. “En principe, cela pourrait simplement être une contingence de la biochimie cellulaire, mais nous suggérons qu’un schéma de traitement de l’information rapide et épars comme le nôtre fournit un argument en faveur de la supériorité fonctionnelle des pointes.”

Les chercheurs ont également évalué leur cadre dans une série de tests de robustesse systématiques. Remarquablement, ils ont découvert que leur modèle est bien adapté aux substrats neuronaux imparfaits et divers, qui ressembleraient à ceux du cortex humain, où deux neurones ne sont pas identiques, ainsi qu’au matériel avec des variations dans ses composants.

“Notre combinaison démontrée de vitesse élevée et de faible puissance arrive, selon nous, à un moment opportun, compte tenu des récents développements dans la conception des puces”, a expliqué Petrovici. « Alors que sur les processeurs modernes, le nombre de transistors augmente encore à peu près de manière exponentielle (loi de Moore), la vitesse de traitement brute, mesurée par la fréquence d’horloge, a stagné au milieu des années 2000, principalement en raison de la dissipation de puissance élevée et des températures de fonctionnement élevées qui surviennent comme En outre, les processeurs modernes reposent encore essentiellement sur une architecture von-Neumann, avec une unité centrale de traitement et une mémoire séparée, entre lesquelles les informations doivent circuler pour chaque étape de traitement d’un algorithme.

Dans les réseaux de neurones, les mémoires ou les données sont stockées dans les unités de traitement elles-mêmes ; c’est-à-dire dans les neurones et les synapses. Cela peut augmenter considérablement l’efficacité du flux d’informations d’un système.

En conséquence de cette plus grande efficacité dans le stockage et le traitement de l’information, le cadre développé par cette équipe de chercheurs consomme relativement peu d’énergie. Par conséquent, il pourrait s’avérer particulièrement utile pour les applications informatiques de pointe telles que les nanosatellites ou les dispositifs portables, où le budget de puissance disponible n’est pas suffisant pour prendre en charge les opérations et les exigences des microprocesseurs modernes.

Jusqu’à présent, Goeltz, Kriener, Petrovici et leurs collègues ont exécuté leur cadre en utilisant une plate-forme pour la recherche neuromorphique de base, qui privilégie ainsi la flexibilité du modèle à l’efficacité. À l’avenir, ils aimeraient implémenter leur framework sur des puces neuromorphiques conçues sur mesure, car cela pourrait leur permettre d’améliorer encore ses performances.

“Outre la possibilité de construire du matériel spécialisé en utilisant notre stratégie de conception, nous prévoyons de poursuivre deux autres questions de recherche”, a déclaré Goeltz. “Tout d’abord, nous aimerions étendre notre implémentation neuromorphique à l’apprentissage en ligne et intégré.”

Pour les besoins de cette étude récente, le réseau développé par les chercheurs a été formé hors ligne, sur un jeu de données préenregistré. Cependant, l’équipe aimerait également le tester dans des scénarios du monde réel où un ordinateur devrait apprendre à effectuer une tâche à la volée en analysant les données en ligne collectées par un appareil, un robot ou un satellite.

“Pour y parvenir, nous visons à exploiter les mécanismes de plasticité intégrés à la puce”, a expliqué Goeltz. “Au lieu d’avoir un ordinateur hôte pour calculer les changements synaptiques pendant l’apprentissage, nous voulons permettre à chaque synapse de calculer et d’appliquer ces changements par elle-même, en utilisant uniquement les informations disponibles localement. Dans notre article, nous décrivons quelques premières idées pour atteindre cet objectif. “

Dans leurs futurs travaux, Goeltz, Kriener, Petrovici et leurs collègues souhaiteraient également étendre leur cadre pour qu’il puisse traiter des données spatio-temporelles. Pour ce faire, ils devraient également l’entraîner sur des données variables dans le temps, telles que des enregistrements audio ou vidéo.

“Bien que notre modèle soit, en principe, adapté pour façonner l’activité de pointe dans un réseau de manière arbitraire, la mise en œuvre spécifique de la propagation d’erreurs basée sur la pointe pendant l’apprentissage de séquence temporelle reste une question de recherche ouverte”, a ajouté Kriener.


L’équipe présente du matériel neuromorphique hautement évolutif inspiré du cerveau


Plus d’information:
J. Göltz et al, Apprentissage profond neuromorphique rapide et économe en énergie avec des temps de premier pic, Nature Machine Intelligence (2021). DOI : 10.1038/s42256-021-00388-x

Steve K. Esser et al, Rétropropagation pour l’informatique neuromorphique économe en énergie. Avancées dans les systèmes de traitement de l’information neuronale(2015). papers.nips.cc/paper/2015/hash … d4ac0e-Abstract.html

Sebastian Schmitt et al, Neuromorphic hardware in the loop: Training a deep spiking network on the brainscales wafer-scale system. 2017 conférence internationale conjointe sur les réseaux de neurones (IJCNN)(2017). DOI : 10.1109 / IJCNN.2017.7966125

© 2021 Réseau Science X

Citation: Un cadre pour améliorer l’apprentissage en profondeur en utilisant les premiers pics (2021, 5 octobre) récupéré le 5 octobre 2021 à partir de https://techxplore.com/news/2021-10-framework-deep-first-spike.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.