Des chercheurs développent un algorithme d’intelligence artificielle «  explicable  »

Les chercheurs développent "explicable" algorithme d'intelligence artificielle

Les images de cartes thermiques sont utilisées pour évaluer la précision d’un nouvel algorithme d’intelligence artificielle explicable que les chercheurs de l’U de T et de LG ont développé pour détecter les défauts des écrans d’affichage de LG. Crédits: Mahesh Sudhakar

Des chercheurs de l’Université de Toronto et de LG AI Research ont développé un algorithme d’intelligence artificielle «explicable» (XAI) qui peut aider à identifier et éliminer les défauts des écrans d’affichage.

Le nouvel algorithme, qui a surpassé les approches comparables sur les repères de l’industrie, a été développé grâce à une collaboration de recherche en IA entre LG et U of T qui a été élargie en 2019 avec un accent sur les applications d’IA pour les entreprises.

Les chercheurs affirment que l’algorithme XAI pourrait potentiellement être appliqué dans d’autres domaines qui nécessitent une fenêtre sur la façon dont l’apprentissage automatique prend ses décisions, y compris l’interprétation des données issues de scans médicaux.

«L’explicabilité et l’interprétabilité consistent à répondre aux normes de qualité que nous nous sommes fixées en tant qu’ingénieurs et sont exigées par l’utilisateur final», déclare Kostas Plataniotis, professeur au département de génie électrique et informatique Edward S. Rogers à la Faculté des applications. Science et ingénierie. « Avec XAI, il n’y a pas de solution universelle. » Vous devez demander à qui vous le développez. Est-ce pour un autre développeur de machine learning? Ou est-ce pour un médecin ou un avocat? « 

L’équipe de recherche comprenait également un récent diplômé en ingénierie de l’Université de Toronto, Mahesh Sudhakar, et le candidat à la maîtrise Sam Sattarzadeh, ainsi que des chercheurs dirigés par Jongseong Jang de LG AI Research Canada, qui fait partie de la branche mondiale de recherche et développement de l’entreprise.

XAI est un domaine émergent qui aborde les problèmes liés à l’approche «boîte noire» des stratégies d’apprentissage automatique.

Dans un modèle de boîte noire, un ordinateur peut recevoir un ensemble de données d’entraînement sous la forme de millions d’images étiquetées. En analysant les données, l’algorithme apprend à associer certaines caractéristiques de l’entrée (images) à certaines sorties (étiquettes). Finalement, il peut correctement attacher des étiquettes aux images qu’il n’a jamais vues auparavant.

La machine décide elle-même des aspects de l’image auxquels prêter attention et de ceux à ignorer, ce qui signifie que ses concepteurs ne sauront jamais exactement comment elle parvient à un résultat.

Mais un tel modèle de «boîte noire» présente des défis lorsqu’il est appliqué à des domaines tels que les soins de santé, le droit et les assurances.

« Par exemple, un [machine learning] Le modèle pourrait déterminer qu’un patient a 90 pour cent de chances d’avoir une tumeur », dit Sudhakar.« Les conséquences d’agir sur des informations inexactes ou biaisées sont littéralement la vie ou la mort. Pour bien comprendre et interpréter la prédiction du modèle, le médecin doit savoir comment l’algorithme y est parvenu. « 

Les chercheurs développent "explicable" algorithme d'intelligence artificielle

Les cartes thermiques des images de référence de l’industrie montrent une comparaison qualitative de l’algorithme XAI de l’équipe (SISE, à l’extrême droite) avec d’autres méthodes XAI de pointe. Crédits: Mahesh Sudhakar

Contrairement à l’apprentissage automatique traditionnel, XAI est conçu pour être une approche «en boîte de verre» qui rend la prise de décision transparente. Les algorithmes XAI sont exécutés simultanément avec les algorithmes traditionnels pour vérifier la validité et le niveau de leurs performances d’apprentissage. L’approche offre également la possibilité d’effectuer le débogage et de trouver des gains d’efficacité de formation.

Sudhakar dit que, de manière générale, il existe deux méthodologies pour développer un algorithme XAI – chacune avec des avantages et des inconvénients.

La première, connue sous le nom de rétro-propagation, repose sur l’architecture d’IA sous-jacente pour calculer rapidement comment la prédiction du réseau correspond à son entrée. La seconde, connue sous le nom de perturbation, sacrifie une certaine vitesse à la précision et implique la modification des entrées de données et le suivi des sorties correspondantes pour déterminer la compensation nécessaire.

«Nos partenaires de LG souhaitaient une nouvelle technologie combinant les avantages des deux», déclare Sudhakar. « Ils avaient un existant [machine learning] modèle qui identifiait les pièces défectueuses dans les produits LG avec écrans, et notre tâche consistait à améliorer la précision des cartes thermiques haute résolution des défauts possibles tout en maintenant une durée de fonctionnement acceptable. « 

L’algorithme XAI résultant de l’équipe, Semantic Input Sampling for Explanation (SISE), est décrit dans un article récent pour la 35e conférence AAAI sur l’intelligence artificielle.

«Nous voyons dans le SISE un potentiel d’application généralisée», déclare Plataniotis. «Le problème et l’intention du scénario particulier nécessiteront toujours des ajustements de l’algorithme – mais ces cartes thermiques ou« cartes d’explication »pourraient être plus facilement interprétées, par exemple, par un professionnel de la santé.»

«L’objectif de LG en s’associant à l’Université de Toronto est de devenir un chef de file mondial en matière d’innovation en IA», déclare Jang. «Cette première réalisation dans XAI témoigne des efforts continus de notre entreprise pour apporter des contributions dans plusieurs domaines, tels que la fonctionnalité des produits LG, l’innovation de fabrication, la gestion de la chaîne d’approvisionnement, l’efficacité de la découverte de matériaux et autres, en utilisant l’IA pour améliorer la satisfaction client.

Le professeur Deepa Kundur, directeur du département de génie électrique et informatique, affirme que des succès comme celui-ci sont un bon exemple de la valeur de la collaboration avec des partenaires de l’industrie.

«Lorsque les deux groupes de chercheurs viennent à la table avec leurs points de vue respectifs, cela peut souvent accélérer la résolution des problèmes», dit Kundur. « Il est inestimable pour les étudiants diplômés d’être exposés à ce processus. »

Bien que ce soit un défi pour l’équipe d’atteindre les objectifs agressifs de précision et de durée d’exécution dans le cadre du projet d’un an – tout en jonglant avec les fuseaux horaires de Toronto / Séoul et en travaillant sous des contraintes COVID-19 – Sudhakar dit l’opportunité de générer une solution pratique pour un fabricant de renommée mondiale valait bien l’effort.

«C’était bien pour nous de comprendre comment fonctionne exactement l’industrie», déclare Sudhakar. « Les objectifs de LG étaient ambitieux, mais nous avons eu un soutien très encourageant de leur part, avec des commentaires sur des idées ou des analogies à explorer. C’était très excitant. »


Les chercheurs de Geisinger trouvent que l’IA peut prédire le risque de décès


Plus d’information:
Explication des réseaux de neurones convolutifs grâce à l’échantillonnage d’entrée basé sur l’attribution et à l’agrégation de fonctionnalités par blocs. arXiv: 2010.00672v2 [cs.CV] arxiv.org/abs/2010.00672

Fourni par l’Université de Toronto

Citation: Des chercheurs développent un algorithme d’intelligence artificielle «  explicable  » (1er avril 2021) récupéré le 14 avril 2021 sur https://techxplore.com/news/2021-04-artificial-intelligence-algorithm.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.