La manière dont les IA demandent des informations personnelles est importante pour gagner la confiance des utilisateurs

ai

Crédit: CC0 Public Domain

Les gens peuvent être réticents à donner leurs informations personnelles aux systèmes d’intelligence artificielle (IA) même si elles sont nécessaires aux systèmes pour fournir des services plus précis et personnalisés, mais une nouvelle étude révèle que la manière dont les systèmes demandent des informations aux utilisateurs peut faites une différence.

Dans une étude, les chercheurs de Penn State rapportent que les utilisateurs ont réagi différemment lorsque les IA proposaient d’aider l’utilisateur ou demandaient de l’aide à l’utilisateur. Cette réponse a influencé le fait que l’utilisateur fasse confiance à l’IA avec ses informations personnelles. Ils ont ajouté que ces introductions de l’IA pourraient être conçues de manière à la fois à accroître la confiance des utilisateurs et à les sensibiliser à l’importance des informations personnelles.

Les chercheurs, qui ont présenté leurs résultats aujourd’hui lors de la conférence virtuelle ACM CHI 2021 sur les facteurs humains dans les systèmes informatiques, la plus importante conférence internationale sur la recherche sur l’interaction homme-machine, ont constaté que les personnes familiarisées avec la technologie – les utilisateurs expérimentés – préféraient les IA qui sont en besoin d’aide, ou recherche d’aide, tandis que les utilisateurs non experts étaient plus susceptibles de préférer les IA qui se présentent à la fois comme des demandeurs d’aide et des fournisseurs d’aide.

Alors que les IA deviennent de plus en plus omniprésentes, les développeurs doivent créer des systèmes qui peuvent mieux se rapporter aux humains, a déclaré S. Shyam Sundar, professeur James P. Jimirro en effets multimédias au Donald P. Bellisario College of Communications et codirecteur de la recherche sur les effets multimédias. Laboratoire.

« Nous devons repenser la manière dont les systèmes d’IA parlent aux utilisateurs humains », a déclaré Sundar. «Cela est venu à la surface parce qu’il y a des inquiétudes croissantes quant à la façon dont les systèmes d’IA commencent à prendre le dessus sur nos vies et en savent plus sur nous que nous ne le pensons. Donc, compte tenu de ces préoccupations, il vaudrait peut-être mieux que nous commencions à passer du traditionnel des scripts de dialogue dans une communication plus collaborative et coopérative qui reconnaît le libre arbitre de l’utilisateur. « 

Ici pour aider?

Les chercheurs ont déclaré que les dialogues traditionnels sur l’IA offrent généralement des introductions qui définissent leur rôle d’aide.

En fait, les utilisateurs expérimentés peuvent être découragés par la façon dont les IA communiquent généralement avec les utilisateurs, ce qui peut leur sembler paternaliste, a déclaré Sundar, qui est également affilié à l’Institut des sciences informatiques et des données (ICDS) de Penn State. Par exemple, les chercheurs citent la demande d’informations sur l’anniversaire de Facebook afin que son IA puisse fournir une expérience adaptée à l’âge de ses utilisateurs.

«Les IA semblent avoir une attitude paternaliste dans la façon dont elles parlent à l’utilisateur – elles semblent dire aux utilisateurs qu’elles sont là pour vous aider et que vous devez leur donner vos informations pour en tirer profit», a déclaré Sundar.

D’un autre côté, lorsqu’un système d’IA demande de l’aide aux utilisateurs, il est considéré comme social. Selon Mengqi Liao, doctorant en communication de masse et auteur principal de l’article, les utilisateurs expérimentés ont trouvé que l’IA en quête d’aide avait une intelligence sociale, que les chercheurs appellent la présence sociale.

«Il est logique que si quelqu’un cherche de l’aide, c’est un comportement intrinsèquement social et de nature très interpersonnelle», a déclaré Liao. « Cette présence sociale, à son tour, conduit à plus de confiance et augmente l’intention de fournir à l’IA plus d’informations personnelles. Les utilisateurs expérimentés ont également donné aux IA en recherche d’aide des évaluations plus élevées de leurs performances, même si elles fournissent le même résultat que les autres IA.

Liao a ajouté que lorsque le système cherche à la fois de l’aide et dit aux utilisateurs qu’il peut les aider à l’avenir, les utilisateurs non-puissants ont moins de problèmes de confidentialité.

IA éthique

Les chercheurs ont déclaré que l’étude offre aux concepteurs un moyen éthique d’accroître la confiance dans les machines sans essayer de tromper les gens pour qu’ils fournissent leurs informations personnelles.

«Nous pensons que ces résultats peuvent également être utiles aux concepteurs qui souhaitent mettre en place des tactiques pour lutter contre les systèmes d’IA qui s’attaquent aux utilisateurs», a déclaré Liao. « Par exemple, nous avons constaté que la présence à la fois des indices de recherche d’aide et de fourniture d’aide peut en fait soulever des problèmes de confidentialité chez les utilisateurs expérimentés. Par conséquent, la simple mise en œuvre des deux indicateurs dans les explications sur les pouvoirs des utilisateurs peut les rendre plus vigilants. leurs informations personnelles. « 

Pour les utilisateurs non puissants, les concepteurs pourraient ajouter des indices de recherche d’aide qui réduiront la présence sociale et les encourageront à devenir plus vigilants sur leurs informations personnelles, a ajouté Liao.

Les chercheurs ont recruté 330 participants à partir d’une plateforme de recherche en ligne sur les microtaches. Les participants ont été assignés au hasard à un site Web simulé représentant l’une des quatre conditions expérimentales – une condition de recherche d’aide, une condition de fourniture d’aide, des conditions de recherche et de fourniture d’aide et une condition de contrôle. Dans la condition de recherche d’aide, l’IA a expliqué par écrit qu’elle avait besoin de l’aide des utilisateurs et de leurs informations personnelles pour s’améliorer et se développer. Dans la condition de fourniture d’aide, il a expliqué qu’il pouvait utiliser les informations personnelles soumises pour aider l’utilisateur à trouver des articles de presse. La troisième condition contenait à la fois des indices de recherche d’aide et de fourniture d’aide. Le contrôle n’a offert aucune explication.

Les chercheurs ont également étudié s’il y aurait des différences dans la façon dont une IA se réfère à elle-même, et ont constaté que les gens lui font moins confiance quand elle se réfère à elle-même en tant que «je» par rapport à «ce système».

Les recherches futures peuvent inclure l’étude de l’utilisation des IA dans d’autres contextes de nature plus sensible, tels que la collecte d’informations financières et médicales, afin de déterminer comment ces introductions pourraient affecter la vigilance des utilisateurs quant à la protection de ces informations.


Les consommateurs prennent des décisions en fonction de la manière et des raisons pour lesquelles les produits sont recommandés en ligne


Fourni par l’Université d’État de Pennsylvanie

Citation: Comment les IA demandent des informations personnelles est important pour gagner la confiance des utilisateurs (2021, 13 mai) récupéré le 13 mai 2021 sur https://techxplore.com/news/2021-05-ais-personal-important-gaining-user.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.