Y a-t-il des preuves à l’appui?

Les systèmes de vidéosurveillance numérique ne peuvent pas simplement identifier qui est quelqu’un. Ils peuvent également déterminer comment une personne se sent et quel type de personnalité elle a. Ils peuvent même dire comment ils pourraient se comporter à l’avenir. Et la clé pour déverrouiller ces informations sur une personne est le mouvement de sa tête.

Telle est l’affirmation de la société derrière le système d’intelligence artificielle (IA) VibraImage. (Le terme «IA» est utilisé ici dans un sens large pour désigner les systèmes numériques qui utilisent des algorithmes et des outils tels que la biométrie automatisée et la vision par ordinateur). Vous n’en avez peut-être jamais entendu parler, mais les outils numériques basés sur VibraImage sont utilisés dans un large éventail d’applications en Russie, en Chine, au Japon et en Corée du Sud.

Mais comme je le montre dans mes recherches récentes, publié dans Science, Technology and Society, il existe très peu de preuves empiriques fiables indiquant que VibraImage et des systèmes comme celui-ci sont réellement efficaces dans ce qu’ils prétendent faire.

Entre autres choses, ces applications incluent l’identification d’individus «suspects» parmi des foules de gens. Ils sont également utilisés pour évaluer les états mentaux et émotionnels des employés. Les utilisateurs de VibraImage comprennent les forces de police, l’industrie nucléaire et la sécurité aéroportuaire. La technologie a déjà été déployée lors de deux Jeux Olympiques, une Coupe du Monde de la FIFA et un Sommet du G7.

Au Japon, les clients de ces systèmes comprennent l’un des principaux fournisseurs mondiaux de reconnaissance faciale (NEC), l’une des plus grandes sociétés de services de sécurité (ALSOK), ainsi que Fujitsu et Toshiba. En Corée du Sud, entre autres utilisations, il est en cours de développement comme système de détection de mensonges sans contact à utiliser dans les interrogatoires de police. En Chine, il a déjà été officiellement certifié à l’usage de la police pour identifier les individus suspects dans les aéroports, aux postes frontières et ailleurs.

Dans toute l’Asie de l’Est et au-delà, la sécurité algorithmique, la surveillance, la police prédictive et l’infrastructure des villes intelligentes sont de plus en plus courantes. VibraImage fait partie de cette infrastructure émergente. Comme d’autres systèmes de détection des émotions algorithmiques en cours de développement et de déploiement à l’échelle mondiale, il promet de porter la vidéosurveillance à un nouveau niveau. Comme je l’explique dans mon article, il prétend le faire en générant des informations sur les personnages et la vie intérieure des sujets qu’ils ne connaissent même pas d’eux-mêmes.

Vibraimage a été développé par le biométriste russe Viktor Minkin via sa société ELSYS Corp depuis 2001. D’autres systèmes de détection d’émotions tentent de calculer les états émotionnels des gens en analysant leurs expressions faciales. En revanche, VibraImage analyse les séquences vidéo des micro-mouvements involontaires, ou «vibrations», de la tête d’une personne, qui sont causés par les muscles et le système circulatoire. L’analyse des expressions faciales pour identifier les émotions a fait l’objet de critiques croissantes ces dernières années. VibraImage pourrait-il fournir une approche plus précise?

Minkin avance deux théories soutenant apparemment l’idée que ces mouvements sont liés à des états émotionnels. Le premier est l’existence d’un «réflexe vestibulo-émotionnel» basé sur l’idée que le système corporel responsable de l’équilibre et de l’orientation spatiale est lié aux états psychologiques et émotionnels. Le second est un «modèle thermodynamique des émotions», qui établit un lien direct entre des états émotionnels-mentaux spécifiques et la quantité d’énergie dépensée par les muscles. De plus, Minkin affirme que cette énergie peut être mesurée par de minuscules vibrations de la tête.

Selon ces théories, les mouvements involontaires du visage et de la tête sont donc l’émotion, l’intention et la personnalité rendues visibles. En plus de repérer les individus suspects, les partisans de VibraImage pensent également que ces données peuvent être utilisées pour déterminer le type de personnalité, identifier les adolescents les plus susceptibles de commettre des crimes ou classer les types de renseignements en fonction de la nationalité et de l’appartenance ethnique. Ils suggèrent même qu’il pourrait être utilisé pour créer un test de fidélité aux valeurs d’une entreprise ou d’une nation à la manière de 1984, basé sur la façon dont les vibrations de la tête d’une personne changent en réponse aux déclarations.

Mais les nombreuses affirmations faites sur ses effets ne semblent pas prouvées. Très peu d’articles scientifiques sur VibraImage ont été publiés dans des revues universitaires avec des processus d’examen rigoureux par les pairs – et beaucoup sont rédigés par des personnes intéressées par le succès de la technologie. Cette recherche repose souvent sur des expériences qui supposent déjà que VibraImage est efficace. La manière exacte dont certains mouvements de la tête sont liés à des états émotionnels et mentaux spécifiques n’est pas expliquée. Une étude de l’Université Kagawa du Japon n’a trouvé pratiquement aucune corrélation entre les résultats d’une évaluation VibraImage et ceux des tests psychologiques existants.

Dans une déclaration en réponse aux affirmations de cet article, Minkin dit que VibraImage n’est pas une technologie d’intelligence artificielle, mais « est basée sur des principes compréhensibles de physique et de cybernétique et de physiologie et d’équations transparentes pour les calculs des émotions ». Il peut utiliser le traitement de l’IA dans la détection du comportement ou la reconnaissance des émotions lorsqu’ils en ont une «nécessité technique».

Il soutient également que les gens pourraient supposer que la technologie est « fausse » car « la technologie simple et sans contact de détection psychophysiologique semble si fantastique » et parce qu’elle est associée à la Russie. Minkin a également publié une réponse technique à mon article.

«AI suspecte»

L’une des principales raisons pour lesquelles il est si difficile de prouver si VibraImage fonctionne est sa prémisse sous-jacente que le système en révèle plus sur les sujets qu’ils n’en savent sur eux-mêmes. Mais il n’y a aucune preuve convaincante que c’est le cas.

Je propose le terme «IA suspecte» pour décrire le nombre croissant de systèmes qui classifient par algorithme les individus comme suspects, mais je soutiens qu’ils sont eux-mêmes profondément suspects. Ils sont opaques, non prouvés, élaborés et mis en œuvre sans contribution ni contrôle démocratique. Ils sont également en grande partie non réglementés et présentent un potentiel de préjudice grave.

VibraImage n’est pas le seul système de ce type sur le marché. D’autres systèmes d’IA pour détecter les individus suspects ou trompeurs ont été testés. Par exemple, Avatar a été testé à la frontière américano-mexicaine et iBorderCtrl aux frontières de l’UE. Les deux sont conçus pour détecter la tromperie parmi les migrants. En Chine, les systèmes basés sur VibraImage et des produits similaires sont utilisés pour une gamme croissante d’applications dans les domaines de l’application de la loi, de la sécurité et de la santé.

L’industrie plus large de la reconnaissance algorithmique des émotions valait jusqu’à 12 milliards de dollars en 2018. On s’attend à ce qu’elle atteigne 37,1 milliards de dollars d’ici 2026. Au milieu des préoccupations mondiales croissantes concernant la nécessité de créer des règles autour du développement éthique de l’IA, nous devons regarder beaucoup plus loin. étroitement à ces systèmes algorithmiques opaques de surveillance et de contrôle.

La Commission européenne a récemment annoncé un projet de règlement sur l’IA classant les systèmes de reconnaissance des émotions comme «à haut risque» et soumis à un niveau plus élevé de contrôle de la gouvernance. C’est un début important. D’autres pays devraient maintenant suivre cette voie pour s’assurer que les dommages potentiels de ces systèmes à haut risque sont minimisés.


L’IA est de plus en plus utilisée pour identifier les émotions: quels enjeux?


Fourni par The Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l’article original.La conversation

Citation: L’IA est utilisée pour profiler les gens à partir des vibrations de leur tête: y a-t-il des preuves à l’appui? (2021, 25 mai) récupéré le 25 mai 2021 sur https://techxplore.com/news/2021-05-ai-profile-people-vibrations-evidence.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.