Méthode proposée pour évaluer la confiance des utilisateurs dans les systèmes d’intelligence artificielle

Le NIST propose une méthode pour évaluer la confiance des utilisateurs dans les systèmes d'intelligence artificielle

La nouvelle publication du NIST propose une liste de neuf facteurs qui contribuent à la confiance potentielle d’un humain dans un système d’IA. Une personne peut peser les neuf facteurs différemment en fonction à la fois de la tâche elle-même et du risque lié à la confiance dans la décision de l’IA. À titre d’exemple, deux programmes d’IA différents – un algorithme de sélection de musique et une IA qui aide au diagnostic du cancer – peuvent obtenir le même score sur les neuf critères. Les utilisateurs, cependant, pourraient être enclins à faire confiance à l’algorithme de sélection de musique, mais pas à l’assistant médical, qui exécute une tâche beaucoup plus risquée. Crédit: N.Hanacek / NIST

Chaque fois que vous parlez à un assistant virtuel sur votre smartphone, vous parlez à une intelligence artificielle, une IA qui peut, par exemple, apprendre vos goûts musicaux et faire des recommandations de chansons qui s’améliorent en fonction de vos interactions. Cependant, l’IA nous aide également dans des activités plus risquées, comme aider les médecins à diagnostiquer le cancer. Ce sont deux scénarios très différents, mais le même problème imprègne les deux: Comment nous, humains, décidons-nous de faire confiance ou non aux recommandations d’une machine?

C’est la question que pose un nouveau projet de publication du National Institute of Standards and Technology (NIST), dans le but de stimuler une discussion sur la façon dont les humains font confiance aux systèmes d’IA. Le document, Intelligence artificielle et confiance des utilisateurs (NISTIR 8332), est ouvert aux commentaires du public jusqu’au 30 juillet 2021.

Le rapport contribue à l’effort plus large du NIST pour aider à faire progresser des systèmes d’IA dignes de confiance. L’objectif de cette dernière publication est de comprendre comment les humains vivent la confiance lorsqu’ils utilisent ou sont affectés par les systèmes d’IA.

Selon Brian Stanton du NIST, la question est de savoir si la confiance humaine dans les systèmes d’IA est mesurable – et si oui, comment la mesurer avec précision et de manière appropriée.

«De nombreux facteurs sont intégrés dans nos décisions concernant la confiance», a déclaré Stanton, l’un des auteurs de la publication. « C’est la façon dont l’utilisateur pense et ressent le système et perçoit les risques liés à son utilisation. »

Stanton, un psychologue, a co-écrit la publication avec l’informaticien du NIST Ted Jensen. Ils fondent en grande partie le document sur des recherches antérieures sur la confiance, à commencer par le rôle intégral de la confiance dans l’histoire humaine et la manière dont elle a façonné nos processus cognitifs. Ils se tournent progressivement vers les défis de confiance uniques associés à l’IA, qui assume rapidement des tâches qui vont au-delà des capacités humaines.

«Les systèmes d’IA peuvent être formés pour« découvrir »des modèles dans de grandes quantités de données qui sont difficiles à comprendre pour le cerveau humain. Un système peut surveiller en permanence un très grand nombre de flux vidéo et, par exemple, repérer un enfant tombant dans un port. dans l’un d’entre eux », a déclaré Stanton. « Nous ne demandons plus à l’automatisation de faire notre travail. Nous lui demandons de faire un travail que les humains ne peuvent pas faire seuls. »

La publication du NIST propose une liste de neuf facteurs qui contribuent à la confiance potentielle d’une personne dans un système d’IA. Ces facteurs sont différents des exigences techniques d’une IA digne de confiance que le NIST est en train d’établir en collaboration avec la communauté plus large de développeurs et de praticiens de l’IA. L’article montre comment une personne peut peser différemment les facteurs décrits en fonction à la fois de la tâche elle-même et du risque lié à la confiance dans la décision de l’IA.

Un facteur, par exemple, est la précision. Un algorithme de sélection de musique peut ne pas avoir besoin d’être trop précis, surtout si une personne est curieuse de sortir de ses goûts parfois pour faire l’expérience de la nouveauté – et dans tous les cas, passer à la chanson suivante est facile. Ce serait bien différent de faire confiance à une IA qui n’était précise qu’à 90% pour poser un diagnostic de cancer, ce qui est une tâche beaucoup plus risquée.

Stanton a souligné que les idées contenues dans la publication sont basées sur des recherches de base et qu’elles bénéficieraient d’un examen public.

« Nous proposons un modèle de confiance des utilisateurs de l’IA », a-t-il déclaré. « Tout est basé sur la recherche des autres et les principes fondamentaux de la cognition. Pour cette raison, nous aimerions avoir des commentaires sur les travaux que la communauté scientifique pourrait poursuivre pour fournir une validation expérimentale de ces idées. »


Des chercheurs demandent à l’IA de s’expliquer


Plus d’information:
Intelligence artificielle et confiance des utilisateurs (NISTIR 8332): nvlpubs.nist.gov/nistpubs/ir/2… ST.IR.8332-draft.pdf

Fourni par l’Institut national des normes et de la technologie

Citation: Méthode proposée pour évaluer la confiance des utilisateurs dans les systèmes d’intelligence artificielle (2021, 20 mai) récupérée le 20 mai 2021 sur https://techxplore.com/news/2021-05-method-user-artificial-intelligence.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.