Méthode de reconnaissance des émotions musicales basée sur la fusion multi-fonctionnalités

musique

Crédit : Pixabay/CC0 Domaine public

Un logiciel capable de corréler les changements musicaux d’un enregistrement audio d’une chanson avec le contenu émotionnel perçu serait utile dans l’industrie de la musique, en particulier en termes de catalogage de la musique et de développement de systèmes de recommandation musicale pour les services de streaming et les ventes. La même approche pourrait également avoir une utilité dans la composition musicale et l’enseignement de la musique ainsi que dans la thérapie basée sur la musique. La recherche dans le Revue internationale des arts et technologiesreconnaît qu’il existe de nombreuses limitations dans le logiciel actuel et indique la voie à suivre pour améliorer ce logiciel.

Yali Zhang de l’école de musique de l’école polytechnique du Henan à Zhengzhou, en Chine, explique comment des recherches antérieures se sont concentrées sur la formation d’un réseau neuronal probabiliste pour reconnaître la nuance d’un morceau de musique et la corréler avec les réponses émotionnelles probables voulues par le compositeur. Cependant, un tel travail comporte de grandes marges d’erreur que Zhang espère éviter en développant sa nouvelle approche de la reconnaissance des émotions musicales. L’approche de Zhang consiste à traiter le signal musical afin d’obscurcir une partie des informations à basse fréquence qui ne font pas nécessairement partie du contenu émotionnel de la musique. Son approche cadre également le signal sonore, puis divise les images par une fonction de fenêtre afin qu’elles puissent être traitées par le logiciel de reconnaissance des émotions. De plus, le bruit est réduit par la détection des points finaux dans le domaine temporel, ajoute-t-elle.

Avec le fichier son ainsi prétraité, la question de la reconnaissance peut commencer et cela implique d’analyser les changements de hauteur, la montée et la chute du ton, et la vitesse à laquelle ces changements se produisent. Zhang explique qu’un “coefficient de pondération” de l’émotion musicale peut ainsi être extrait d’un fichier sonore. Les caractéristiques ainsi extraites pour des fichiers sonores connus avec un contenu émotif décrit par l’homme peuvent ensuite être utilisées pour entraîner le système afin qu’il puisse reconnaître automatiquement le contenu émotif dans un morceau de musique précédemment non catégorisé. L’approche réduit considérablement les marges d’erreur observées dans les travaux antérieurs, ce qui rend la catégorisation du contenu émotif musical beaucoup plus précise.


Une étude utilisant une nouvelle interface interactive montre comment les auditeurs de musique pensent que différentes émotions sonnent comme de la musique


Plus d’information:
Yali Zhang, Méthode de reconnaissance des émotions musicales basée sur la fusion de plusieurs fonctionnalités, Revue internationale des arts et technologies (2022). DOI : 10.1504 / IJART.2022.122447

Citation: Méthode de reconnaissance des émotions musicales basée sur la fusion de plusieurs fonctions (2 mai 2022) récupéré le 2 mai 2022 sur https://techxplore.com/news/2022-05-music-emotion-recognition-method-based.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.