Aborder la nature de la boîte noire des modèles d’apprentissage en profondeur

ProtoTree : aborder la nature de la boîte noire des modèles d'apprentissage en profondeur

Crédit : Université de Twente

L’un des plus grands obstacles à l’adoption de l’intelligence artificielle est qu’elle ne peut pas expliquer sur quoi une prédiction est basée. Ces systèmes d’apprentissage automatique sont ce qu’on appelle des boîtes noires lorsque le raisonnement d’une décision n’est pas évident pour un utilisateur. Meike Nauta, Ph.D. candidat du groupe Data Science au sein de la faculté EEMCS de l’Université de Twente, a créé un modèle pour répondre à la nature de la boîte noire des modèles d’apprentissage en profondeur.

Les algorithmes peuvent déjà faire des prédictions précises, telles que des diagnostics médicaux, mais ils ne peuvent pas expliquer comment ils sont arrivés à une telle prédiction. Ces dernières années, une grande attention a été accordée au domaine de l’IA explicable. « Pour de nombreuses applications, il est important de savoir si le modèle utilise le bon raisonnement pour arriver à une certaine prédiction. À l’aide d’une IA explicable, des questions telles que « Qu’est-ce que le modèle a appris ? » et « Comment le modèle parvient-il à une telle prédiction ? ” peut être répondu”, dit Nauta.

Les recherches antérieures sur l’IA explicable utilisaient principalement des méthodes d’explicabilité post-hoc, dans lesquelles le modèle est interprété après avoir été formé. Une direction relativement nouvelle, dans laquelle peu de recherches ont été faites, est “l’apprentissage automatique interprétable de manière intrinsèque”. La grande différence avec cette méthode est que l’explicabilité a déjà été incorporée dans le modèle lui-même. Nauta a travaillé là-dessus avec succès ! Elle a développé un modèle appelé Neural Prototype Tree, en abrégé ProtoTree, pour la classification d’images interprétables.Cette recherche contribue au nouveau domaine très demandé de l’apprentissage automatique intrinsèquement interprétable, qui est explicable par conception et montre honnêtement son propre raisonnement.

Comment ça marche?

« Le raisonnement du modèle est fondamentalement comme le jeu « Devine qui ? », dans lequel vous demandez par exemple si la personne a les cheveux roux. Vous recevrez un oui ou un non pour une réponse et vous pourrez ensuite poser la question suivante », explique Nauta. . Le modèle ProtoTree fonctionne sur le même principe. Le modèle a été formé à l’aide d’un ensemble de données composé d’images de 200 espèces d’oiseaux différentes. Lorsque le modèle est exposé à une image d’entrée, le modèle recherche les caractéristiques physiques correspondantes d’un type d’oiseau ; par exemple, la présence d’une poitrine rouge, d’une aile noire et d’une bande noire près de l’œil sera identifiée comme Vermillion Flycatcher.

Selon Christin Seifert, professeur à l’Université de Duisburg-Essen en Allemagne et co-auteur de l’article, ce processus est similaire à l’enseignement de nouvelles choses à un enfant. “Par exemple, vous dites à un enfant que l’animal sur une photo est un chien, mais vous ne dites pas à l’enfant exactement quelles sont ses caractéristiques physiques. L’enfant apprend simplement à reconnaître les autres chiens sur la base de cette photo de chien.”

Avantages

“L’un des plus grands avantages est que le modèle montre son raisonnement complet étape par étape, ce qui permet de suivre comment le modèle parvient à une certaine prédiction”, explique Nauta. “En outre, cela montre également sur quoi exactement le modèle a basé ses choix, afin que les biais du modèle puissent être découverts.” Par exemple, ProtoTree a révélé le biais que le modèle a appris à distinguer un oiseau aquatique d’un oiseau chanteur en regardant la présence de feuilles d’arbre. En montrant les biais potentiels du modèle, la discrimination par des algorithmes d’apprentissage automatique a été abordée.

Quoi de neuf dans cette approche ?

L’approche produit un arbre de décision, ce qui n’est pas nouveau : l’apprentissage par arbre de décision existe depuis des décennies. Cependant, les arbres de décision ne sont pas conçus pour traiter les données d’images et sont donc à peine utilisés pour la classification des images. “La vraie nouveauté ici est que chaque point de décision contient une petite image facile à interpréter et significative pour les humains. De plus, les soi-disant” prototypes “qui sont discriminés dans les points de décision sont automatiquement découverts uniquement à partir des données d’image d’exemple “, explique Maurice van Keulen, professeur agrégé au sein de la faculté EEMCS de l’université de Twente. La chose magique à ce sujet est qu’il n’y a pas de compréhension d’expert humain nécessaire dans ce processus, seulement quelques exemples d’images. Van Keulen : « Imaginez que vous ne connaissez rien aux espèces d’oiseaux et que vous obtenez toutes sortes d’images d’oiseaux avec les noms correspondants, après quoi vous devez écrire un livre sur la catégorisation des oiseaux. »

En comparaison, dans l’apprentissage automatique de la boîte noire, l’ordinateur est un étudiant qui apprend à effectuer lui-même une tâche. Ainsi, c’est apprendre à classer les oiseaux en « prédisant » le nom de l’oiseau. Cependant, dans l’apprentissage automatique interprétable, l’ordinateur devient un enseignant qui peut éduquer les gens, sans avoir lui-même reçu d’éducation.

Motivation pour de futures recherches

Le modèle a jusqu’à présent été appliqué à des références d’images standard avec des voitures et des oiseaux, mais dans de futures recherches, Nauta souhaiterait appliquer le modèle à d’autres domaines importants. “Les soins de santé seraient un secteur intéressant pour mener des recherches plus approfondies sur l’applicabilité du modèle ProtoTree, par exemple en reconnaissant les fractures osseuses sur les rayons X”, explique Nauta. « Comprendre le raisonnement du modèle est extrêmement important. Lorsqu’un médecin reçoit une méthode de traitement ou un diagnostic de l’IA, il doit être capable de le comprendre lui-même et de valider le raisonnement. Étant donné que le modèle ProtoTree est capable de le faire, il serait intéressant de mener recherche sur son applicabilité dans le secteur médical. Par conséquent, nous travaillons actuellement à une collaboration interdisciplinaire entre l’Université de Twente, le ZGT (groupe hospitalier de Twente), l’Institut d’IA en médecine d’Essen et l’Université de Münster.


Des chercheurs développent de nouveaux protocoles pour valider l’intégrité des modèles d’apprentissage automatique


Plus d’information:
Arbres prototypes neuronaux pour la reconnaissance d’images interprétables à grain fin. openaccess.thecvf.com/content/ … CVPR_2021_paper.html

Fourni par l’Université de Twente

Citation: ProtoTree : Aborder la nature de la boîte noire des modèles d’apprentissage en profondeur (2021, 16 juin) récupéré le 16 juin 2021 à partir de https://techxplore.com/news/2021-06-prototree-black-box-nature-deep.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.