L’intelligence artificielle peut compenser les fragilités humaines, conduisant à de meilleures décisions

L'intelligence artificielle peut compenser les fragilités humaines, conduisant à de meilleures décisions

Crédit : Anton Grabolle / Better Images of AI / Human-AI collaboration / CC-BY 4.0

La vie moderne peut être pleine de rencontres déroutantes avec l’intelligence artificielle – pensez aux malentendus avec les chatbots du service client ou au hair metal mal placé par algorithme dans votre liste de lecture Spotify. Ces systèmes d’IA ne peuvent pas fonctionner efficacement avec les gens car ils n’ont aucune idée que les humains peuvent se comporter de manière apparemment irrationnelle, explique Mustafa Mert Çelikok. Il est titulaire d’un doctorat. étudiant étudiant l’interaction homme-IA, avec l’idée de prendre les forces et les faiblesses des deux côtés et de les mélanger dans un décideur supérieur.

Dans le monde de l’IA, un exemple d’un tel hybride est un “centaure”. Ce n’est pas un cheval-humain mythologique, mais une équipe humaine-IA. Les centaures sont apparus aux échecs à la fin des années 1990, lorsque les systèmes d’intelligence artificielle sont devenus suffisamment avancés pour battre les champions humains. Au lieu d’un affrontement «humain contre machine», les échecs centaures ou cyborg impliquent un ou plusieurs programmes d’échecs informatiques et des joueurs humains de chaque côté.

“C’est la Formule 1 des échecs”, déclare Çelikok. “Les grands maîtres ont été vaincus. Les super IA ont été vaincues. Et les grands maîtres jouant avec de puissantes IA ont également perdu.” Il s’avère que les joueurs novices associés à des IA sont les plus performants. “Les novices n’ont pas d’opinions tranchées” et peuvent former des partenariats décisionnels efficaces avec leurs coéquipiers IA, tandis que “les grands maîtres pensent qu’ils savent mieux que les IA et les ignorent lorsqu’ils ne sont pas d’accord – c’est leur perte”, observe Çelikok.

Dans un jeu comme les échecs, il existe des règles définies et un objectif clair que les humains et les IA partagent. Mais dans le monde des achats en ligne, des listes de lecture ou de tout autre service où un humain rencontre un algorithme, il peut n’y avoir aucun objectif partagé, ou l’objectif peut être mal défini, du moins du point de vue de l’IA. Çelikok essaie de résoudre ce problème en incluant des informations réelles sur le comportement humain afin que les systèmes multi-agents – des partenariats de personnes et d’IA semblables à des centaures – puissent se comprendre et prendre de meilleures décisions.

“Le” humain “dans l’interaction homme-IA n’a pas été beaucoup exploré”, déclare Çelikok. “Les chercheurs n’utilisent aucun modèle de comportement humain, mais nous utilisons explicitement la science cognitive humaine. Nous n’essayons pas de remplacer les humains ou d’apprendre aux IA à accomplir une tâche. Au lieu de cela, nous voulons que les IA aident les gens à faire de meilleures décisions.” Dans le cas de la dernière étude de Çelikok, cela signifie aider les gens à manger plus sainement.

Dans la simulation expérimentale, une personne parcourt des food trucks, essayant de décider où manger, avec l’aide de son fidèle véhicule autonome alimenté par l’IA. La voiture sait que le passager préfère les aliments végétariens sains aux beignets malsains. Avec ce critère en tête, la voiture IA choisirait de prendre le chemin le plus court vers le food truck végétarien. Cette solution simple peut cependant se retourner contre vous. Si le chemin le plus court passe par le magasin de beignets, le passager peut prendre le volant, annulant l’IA. Cette irrationalité humaine apparente entre en conflit avec la solution la plus logique.

Le modèle de Çelikok évite ce problème de manière unique en aidant l’IA à comprendre que les humains sont incohérents dans le temps. “Si vous demandez aux gens, voulez-vous 10 dollars maintenant ou 20 demain, et ils choisissent 10 maintenant, mais ensuite vous demandez à nouveau, voulez-vous 10 dollars dans 100 jours ou 20 dans 101 jours, et ils choisissent 20, c’est-à-dire incompatible », explique-t-il. “L’écart n’est pas traité de la même manière. C’est ce que nous entendons par incohérence dans le temps, et une IA typique ne prend pas en compte la non-rationalité ou les préférences incohérentes dans le temps, par exemple la procrastination, le changement de préférences à la volée ou la tentation de beignets.” Dans les recherches de Çelikok, la voiture IA découvrira que prendre un itinéraire légèrement plus long contournera le magasin de beignets, ce qui entraînera un résultat plus sain pour le passager.

“L’IA a des forces et des faiblesses uniques, et les gens aussi”, explique Çelikok. “La faiblesse humaine réside dans les comportements irrationnels et l’incohérence temporelle, que l’IA peut corriger et compléter.” D’un autre côté, s’il y a une situation où l’IA a tort et le droit de l’homme, l’IA apprendra à se comporter selon la préférence humaine lorsqu’elle est annulée. C’est un autre résultat secondaire de la modélisation mathématique de Çelikok.

La combinaison de modèles de cognition humaine avec des statistiques permet aux systèmes d’IA de comprendre comment les gens se comportent plus rapidement, explique Çelikok. C’est aussi plus efficace. Par rapport à la formation d’un système d’IA avec des milliers d’images pour apprendre la reconnaissance visuelle, interagir avec les gens est lent et coûteux, car apprendre les préférences d’une seule personne peut prendre beaucoup de temps. Çelikok fait à nouveau une comparaison avec les échecs : un novice humain ou un système d’IA peuvent à la fois comprendre les règles et les mouvements physiques, mais ils peuvent tous deux avoir du mal à comprendre les intentions complexes d’un grand maître. La recherche de Çelikok consiste à trouver l’équilibre entre les mouvements optimaux et les mouvements intuitifs, en construisant un centaure réel avec les mathématiques.


Le moteur d’échecs sacrifie la maîtrise pour imiter le jeu humain


Plus d’information:
Mustafa Mert Çelikok, Frans A. Oliehoek, Samuel Kaski, Apprentissage par renforcement bayésien à meilleure réponse avec des POMDP adaptatifs bayésiens pour les centaures. arXiv:2204.01160v1 [cs.AI]arxiv.org/abs/2204.01160

Fourni par l’Université Aalto

Citation: L’intelligence artificielle peut compenser les fragilités humaines, conduisant à de meilleures décisions (12 mai 2022) récupéré le 12 mai 2022 sur https://techxplore.com/news/2022-05-artificial-intelligence-offset-human-frailties.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.