Examiner comment les humains développent la confiance envers les agents virtuels incarnés

Examiner comment les humains développent la confiance envers les agents virtuels incarnés

Les participants se familiarisent avec les deux agents dans l’introduction, avant de commencer l’expérience. Crédit: Moradinezhad & Solovey.

Les agents virtuels incorporés (EVA), des personnages virtuels 3D représentés graphiquement qui affichent un comportement humain, pourraient avoir des applications précieuses dans une variété de paramètres. Par exemple, ils pourraient être utilisés pour aider les gens à pratiquer leurs compétences linguistiques ou pourraient servir de compagnons aux personnes âgées et aux personnes souffrant de troubles psychologiques ou comportementaux.

Des chercheurs de l’Université Drexel et de l’Institut polytechnique de Worcester ont récemment mené une étude sur l’impact et l’importance de la confiance dans les interactions entre les humains et les EVA. Leur article, publié dans Springer’s Journal international de robotique sociale, pourraient informer le développement d’EVA qui sont plus agréables et plus faciles à accepter pour les humains.

« Notre expérience a été menée sous la forme de deux sessions de questions / réponses avec l’aide de deux agents virtuels (un agent pour chaque session) », a déclaré à TechXplore Reza Moradinezhad, l’un des chercheurs qui ont mené l’étude.

Dans l’expérience menée par Moradinezhad et son superviseur, le Dr Erin T. Solovey, un groupe de participants s’est vu présenter deux séries de questions à choix multiples, auxquelles on leur a demandé de répondre en collaboration avec une EVA. Les chercheurs ont utilisé deux EVA, surnommés agent A et agent B, et les participants se sont vu attribuer un agent différent pour chaque série de questions.

Les agents utilisés dans l’expérience se sont comportés différemment; l’un était coopératif et l’autre non coopératif. Cependant, alors que certains participants interagissaient avec un agent coopératif tout en répondant à une série de questions et un agent non coopératif en répondant à l’autre, d’autres se sont vu attribuer un agent coopératif dans les deux conditions ou un agent non coopératif dans les deux conditions.

« Avant que nos participants ne choisissent une réponse, et pendant que leur curseur était sur chacune des réponses, l’agent a montré une expression faciale spécifique allant d’un grand sourire avec un signe de tête en accord à un grand froncement de sourcils et en secouant la tête en signe de désapprobation », Moradinezhad expliqué. « Les participants ont remarqué que l’expression faciale très positive n’est pas toujours un indicateur de la bonne réponse, en particulier dans la condition » non coopérative « . »

Le principal objectif de l’étude menée par Moradinezhad et le Dr Solovey était de mieux comprendre le processus par lequel les humains développent la confiance dans les EVA. Des études antérieures suggèrent que la confiance d’un utilisateur dans les systèmes informatiques peut varier en fonction de sa confiance envers les autres humains.

« Par exemple, la confiance envers les systèmes informatiques est généralement élevée au début, car ils sont considérés comme un outil, et quand un outil est disponible, vous vous attendez à ce qu’il fonctionne comme prévu, mais l’hésitation est plus élevée pour faire confiance à un humain. car il y a plus d’incertitude », a déclaré Moradinezhad. « Cependant, si un système informatique fait une erreur, la confiance en lui diminue rapidement car il est considéré comme un défaut et devrait persister. Dans le cas des humains, par contre, s’il existe déjà une confiance établie, quelques exemples des violations ne portent pas gravement atteinte à la confiance.

Comme les EVA partagent des caractéristiques similaires avec les humains et les systèmes informatiques conventionnels, Moradinezhad et le Dr Solovey ont voulu découvrir comment les humains ont développé la confiance à leur égard. Pour ce faire, ils ont observé de près comment la confiance de leurs participants dans les EVA a évolué au fil du temps, entre le moment où ils ont participé à l’expérience et le moment où ils l’ont terminée.

« Cela a été fait à l’aide de trois enquêtes de confiance identiques, demandant aux participants d’évaluer les deux agents (c’est-à-dire les agents A et B) », a déclaré Moradinezhad. «La première enquête de base a eu lieu après la session d’introduction au cours de laquelle les participants ont vu l’interface, les agents et les expressions faciales, mais n’ont répondu à aucune question. La seconde a eu lieu après avoir répondu à la première série de questions en collaboration avec l’une des agents. »

Dans la deuxième enquête, les chercheurs ont également demandé aux participants d’évaluer leur confiance dans le deuxième agent, bien qu’ils n’aient pas encore interagi avec lui. Cela leur a permis d’explorer si l’interaction des participants avec le premier agent avait affecté leur confiance dans le deuxième agent, avant d’interagir avec lui.

« De même, dans la troisième enquête de confiance (qui a eu lieu après la deuxième série, en collaboration avec le deuxième agent), nous avons également inclus le premier agent, pour voir si l’interaction des participants avec le deuxième agent a changé leur opinion sur le premier, « A déclaré Moradinezhad. « Nous avons également eu un entretien plus ouvert avec les participants à la fin de l’expérience pour leur donner une chance de partager leur point de vue sur l’expérience. »

Examiner comment les humains développent la confiance envers les agents virtuels incarnés

Moradinezhad (à gauche) se prépare à effectuer une tâche sur l’ordinateur pendant que le Dr Solovey (à droite) ajuste les capteurs fNIRS sur son front. Les données du capteur sont lues et stockées par l’ordinateur fNIRS (en arrière-plan) pour une analyse plus approfondie. Crédit: Moradinezhad & Solovey.

Dans l’ensemble, les chercheurs ont constaté que les participants ont obtenu de meilleurs résultats dans les séries de questions auxquelles ils ont répondu avec des agents coopératifs et ont exprimé une plus grande confiance en ces agents. Ils ont également observé des tendances intéressantes dans la façon dont la confiance des participants évoluait lorsqu’ils interagissaient d’abord avec un agent coopératif, suivi par un agent non coopératif.

« Dans la condition » coopérative-non coopérative « , le premier agent était coopératif, ce qui signifie qu’il a aidé les participants 80% du temps », a déclaré Morandinezhad. « Juste après la première session, les participants ont répondu à une enquête sur la fiabilité des agents et leurs notes pour le premier agent étaient considérablement faibles, même parfois comparables à celles que les autres participants ont attribuées à l’agent non coopératif. Ceci est conforme aux résultats de d’autres études qui disent que les humains ont des attentes élevées vis-à-vis de l’automatisation et que même 80% de coopération peuvent être perçus comme peu fiables. « 

Alors que les participants ont mal noté les agents coopératifs après avoir collaboré avec eux lors de la première session de questions-réponses, leur perception de ces agents semblait changer s’ils travaillaient avec un agent non coopératif lors de la deuxième session. En d’autres termes, l’expérience d’agents qui manifestaient un comportement à la fois coopératif et non coopératif semblait susciter une plus grande appréciation des agents coopératifs.

« Dans l’interview ouverte, nous avons constaté que les participants s’attendaient à ce que les agents les aident tout le temps et lorsque pour certaines questions l’aide des agents conduisait à la mauvaise réponse, ils pensaient qu’ils ne pouvaient pas faire confiance à l’agent », a expliqué Morandinezhad. « Cependant, après avoir travaillé avec le deuxième agent et réalisé qu’un agent peut être bien pire que le premier agent, ils ont, comme l’a dit l’un des participants, » préféré « travailler avec le premier agent. Cela montre que la confiance est relative. , et qu’il est crucial d’éduquer les utilisateurs sur les capacités et les faiblesses de ces agents. Sinon, ils pourraient finir par ignorer complètement l’agent et effectuer eux-mêmes la tâche (comme l’a fait l’un de nos participants qui a réalisé des performances nettement moins bonnes que le reste du groupe ). « 

Un autre modèle intéressant observé par les chercheurs était que lorsque les participants interagissaient avec un agent coopératif lors des deux séances de questions-réponses, leurs notes pour le premier agent étaient significativement plus élevées que celles pour le second. Cette découverte pourrait en partie être expliquée par un processus psychologique connu sous le nom de «biais de primauté».

« Le biais de primauté est un biais cognitif pour rappeler et favoriser les éléments introduits le plus tôt dans une série », a déclaré Morandinezhad. « Une autre explication possible de nos observations pourrait être que, comme en moyenne, les participants avaient une performance inférieure sur la deuxième série de questions, ils auraient pu supposer que l’agent faisait un travail plus mauvais pour les aider. Il s’agit d’un indicateur que des agents similaires, même avec exactement le même taux de performance, peut être vu différemment en termes de fiabilité dans certaines conditions (par exemple, en fonction de leur ordre d’apparition ou de la difficulté de la tâche à accomplir). « 

Dans l’ensemble, les résultats suggèrent que la confiance d’un utilisateur humain dans les EVA est relative et peut changer en fonction de divers facteurs. Par conséquent, les roboticiens ne doivent pas supposer que les utilisateurs peuvent estimer avec précision le niveau de fiabilité d’un agent.

« À la lumière de nos résultats, nous pensons qu’il est important de communiquer les limites d’un agent aux utilisateurs pour leur donner une indication de la confiance en eux », a déclaré Morandinezhad. « De plus, notre étude prouve qu’il est possible de calibrer la confiance des utilisateurs pour un agent grâce à leur interaction avec un autre agent. »

À l’avenir, les résultats recueillis par Morandinezhad et le Dr Solovey pourraient éclairer les pratiques en robotique sociale et ouvrir la voie au développement d’agents virtuels que les utilisateurs humains perçoivent comme plus fiables. Les chercheurs mènent actuellement de nouvelles études explorant d’autres aspects des interactions entre les humains et les EVA.

« Nous construisons des algorithmes d’apprentissage automatique qui peuvent prédire si un utilisateur choisira une réponse suggérée par un agent pour une question donnée », a déclaré Morandinezhad. «Idéalement, nous aimerions développer un algorithme capable de prédire cela en temps réel. Ce serait la première étape vers des agents intelligents adaptatifs et sensibles aux émotions qui peuvent apprendre des comportements passés des utilisateurs, prédire avec précision leur prochain comportement et calibrer le leur. comportement basé sur l’utilisateur. « 

Dans leurs études précédentes, les chercheurs ont montré que le niveau d’attention d’un participant peut être mesuré à l’aide de la spectroscopie fonctionnelle proche infrarouge (fNIRS), une interface cerveau-ordinateur (BCI) non invasive. D’autres équipes ont également développé des agents capables de donner des informations en fonction de l’activité cérébrale mesurée par fNIRS. Dans leurs travaux futurs, Morandinezhad et le Dr Solovey prévoient d’examiner plus en détail le potentiel des techniques fNIRS pour améliorer les interactions avec les agents virtuels.

<< L'intégration des données cérébrales au système actuel fournit non seulement des informations supplémentaires sur l'utilisateur pour améliorer la précision du modèle d'apprentissage automatique, mais aide également l'agent à détecter les changements dans le niveau d'attention et d'engagement des utilisateurs et à ajuster son comportement en fonction de cela, "A déclaré Morandinezhad. «Un EVA qui aide les utilisateurs dans la prise de décision critique serait ainsi en mesure d'ajuster l'étendue de ses suggestions et de son assistance en fonction de l'état mental de l'utilisateur. Par exemple, il produirait moins de suggestions avec des délais plus longs entre chacun d'eux lorsqu'il détecte l'utilisateur est dans un état normal, mais cela augmenterait le nombre et la fréquence des suggestions s'il détecte que l'utilisateur est stressé ou fatigué. "


Faisons-nous confiance aux agents de l’intelligence artificielle pour arbitrer les conflits? Pas entièrement


Plus d’information:
Étude de la confiance dans l’interaction avec des agents virtuels incohérents. Journal international de robotique sociale(2021). DOI: 10.1007 / s12369-021-00747-z

© Réseau Science X 2021

Citation: Examiner comment les humains développent la confiance envers les agents virtuels incarnés (2021, 3 mai) récupéré le 3 mai 2021 sur https://techxplore.com/news/2021-05-humans-embodied-virtual-agents.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.