Notre utilisation occasionnelle des outils d’analyse faciale peut conduire à des applications plus sinistres

Notre utilisation occasionnelle des outils d'analyse faciale peut conduire à des applications plus sinistres

Les technologies de numérisation faciale sont plus courantes qu’on ne le pense. Crédit : Shutterstock

Le 14 décembre, les gouvernements de la Colombie-Britannique, de l’Alberta et du Québec ont ordonné à la société de reconnaissance faciale Clearview AI de cesser de collecter et de supprimer les images de personnes obtenues sans leur consentement. Les discussions sur les risques des systèmes de reconnaissance faciale qui reposent sur des technologies d’analyse faciale automatisées ont tendance à se concentrer sur les entreprises, les gouvernements nationaux et les forces de l’ordre. Mais ce qui est très préoccupant, ce sont les manières dont la reconnaissance faciale et l’analyse se sont intégrées à notre vie quotidienne.

Amazon, Microsoft et IBM ont cessé de fournir des systèmes de reconnaissance faciale aux services de police après que des études ont montré un biais algorithmique identifiant de manière disproportionnée les personnes de couleur, en particulier les Noirs.

Facebook et Clearview AI ont traité des poursuites et des règlements pour la création de bases de données de milliards de modèles de visages sans le consentement des gens.

Au Royaume-Uni, la police fait l’objet d’un examen minutieux pour son utilisation de la reconnaissance faciale en temps réel dans les espaces publics. Le gouvernement chinois suit sa population minoritaire ouïghoure grâce à des technologies de balayage facial.

Et pourtant, pour saisir la portée et les conséquences de ces systèmes, nous devons également prêter attention aux pratiques occasionnelles des utilisateurs quotidiens qui appliquent des scans et des analyses de visage de manière routinière qui contribuent à l’érosion de la vie privée et augmentent la discrimination sociale et le racisme.

En tant que chercheur sur les pratiques visuelles des médias mobiles et leurs liens historiques avec les inégalités sociales, j’explore régulièrement comment les actions des utilisateurs peuvent construire ou changer les normes autour de questions telles que la vie privée et l’identité. À cet égard, l’adoption et l’utilisation de systèmes et de produits d’analyse faciale dans notre vie quotidienne peuvent atteindre un point de basculement dangereux.

Scans de visage quotidiens

Les algorithmes open source qui détectent les caractéristiques faciales font de l’analyse ou de la reconnaissance faciale un complément facile pour les développeurs d’applications. Nous utilisons déjà la reconnaissance faciale pour déverrouiller nos téléphones ou payer des marchandises. Les caméras vidéo intégrées aux maisons intelligentes utilisent la reconnaissance faciale pour identifier les visiteurs ainsi que pour personnaliser les écrans et les rappels audio. La fonction de mise au point automatique sur les appareils photo des téléphones portables comprend la détection et le suivi des visages, tandis que le stockage de photos dans le cloud génère des albums et des diaporamas thématiques en faisant correspondre et en regroupant les visages qu’il reconnaît dans les images que nous créons.

L’analyse du visage est utilisée par de nombreuses applications, y compris les filtres de médias sociaux et les accessoires qui produisent des effets tels que le vieillissement artificiel et l’animation des traits du visage. Les applications d’auto-amélioration et de prévision pour la beauté, les horoscopes ou la détection de l’ethnicité génèrent également des conseils et des conclusions basés sur des scans du visage.

Mais l’utilisation de systèmes d’analyse faciale pour les horoscopes, les selfies ou l’identification de ceux qui se trouvent sur nos marches peut avoir des conséquences sociétales à long terme : ils peuvent faciliter la surveillance et le suivi à grande échelle, tout en maintenant les inégalités sociales systémiques.

Risques occasionnels

Lorsqu’elles sont répétées dans le temps, ces utilisations à faible enjeu et à récompense rapide peuvent nous inciter à faire face à la numérisation de manière plus générale, ouvrant la porte à des systèmes plus étendus dans des contextes différents. Nous n’avons aucun contrôle sur – et peu d’informations sur – qui gère ces systèmes et comment les données sont utilisées.

Si nous soumettons déjà nos visages à un examen automatisé, non seulement avec notre consentement mais aussi avec notre participation active, alors être soumis à des analyses et analyses similaires lorsque nous nous déplaçons dans les espaces publics ou les services d’accès peut ne pas sembler particulièrement intrusif.






Une enquête de PBS sur les problèmes de confidentialité et de partialité de la reconnaissance faciale.

De plus, notre utilisation personnelle des technologies d’analyse faciale contribue directement au développement et à la mise en œuvre de systèmes plus vastes destinés à suivre les populations, à classer les clients ou à développer des pools de suspects pour les enquêtes. Les entreprises peuvent collecter et partager des données qui relient nos images à nos identités, ou pour des ensembles de données plus volumineux utilisés pour former les systèmes d’IA à la reconnaissance des visages ou des émotions.

Même si la plateforme que nous utilisons restreint de telles utilisations, les produits partenaires peuvent ne pas respecter les mêmes restrictions. Le développement de nouvelles bases de données de particuliers peut être lucratif, notamment lorsque celles-ci peuvent comprendre plusieurs images de visage de chaque utilisateur ou peuvent associer des images à des informations d’identification, telles que des noms de compte.

Profilage numérique pseudo-scientifique

Mais peut-être le plus troublant, notre adoption croissante des technologies d’analyse faciale alimente la façon dont elles déterminent non seulement l’identité d’un individu, mais aussi son origine, son caractère et sa valeur sociale.

De nombreuses applications prédictives et diagnostiques qui scannent nos visages pour déterminer notre origine ethnique, notre beauté, notre bien-être, nos émotions et même notre potentiel de gain s’appuient sur les pseudosciences historiques troublantes de la phrénologie, de la physionomie et de l’eugénisme.

Ces systèmes interdépendants dépendaient à des degrés divers de l’analyse du visage pour justifier les hiérarchies raciales, la colonisation, l’esclavage, la stérilisation forcée et l’incarcération préventive.

Notre utilisation des technologies d’analyse faciale peut perpétuer ces croyances et préjugés, ce qui implique qu’ils ont une place légitime dans la société. Cette complicité peut alors justifier des systèmes automatisés d’analyse faciale similaires pour des utilisations telles que la sélection des candidats à un emploi ou la détermination de la criminalité.

Construire de meilleures habitudes

La réglementation de la façon dont les systèmes de reconnaissance faciale collectent, interprètent et distribuent les données biométriques n’a pas suivi le rythme de notre utilisation quotidienne du balayage et de l’analyse du visage. Des progrès politiques ont été réalisés en Europe et dans certaines parties des États-Unis, mais une réglementation plus stricte est nécessaire.

De plus, nous devons confronter nos propres habitudes et hypothèses. Comment pourrions-nous nous mettre nous-mêmes et les autres, en particulier les populations marginalisées, en danger en banalisant un tel examen automatisé ?

Quelques ajustements simples peuvent nous aider à faire face à l’assimilation rampante des systèmes d’analyse faciale dans notre vie quotidienne. Un bon début consiste à modifier les paramètres de l’application et de l’appareil pour minimiser la numérisation et le partage. Avant de télécharger des applications, recherchez-les et lisez les conditions d’utilisation.

Résistez au frisson de courte durée de la dernière mode des effets de visage sur les réseaux sociaux : avons-nous vraiment besoin de savoir à quoi nous ressemblerions en tant que personnages de Pixar ? Reconsidérez les appareils intelligents équipés de technologies de reconnaissance faciale. Soyez conscient des droits de ceux dont l’image pourrait être capturée sur un appareil domestique intelligent – vous devez toujours obtenir le consentement explicite de toute personne passant devant l’objectif.

Ces petits changements, s’ils sont multipliés entre les utilisateurs, les produits et les plateformes, peuvent protéger nos données et gagner du temps pour une réflexion plus approfondie sur les risques, les avantages et le déploiement équitable des technologies de reconnaissance faciale.


Reconnaissance faciale dans les écoles : voici les risques pour les enfants


Fourni par La Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.La conversation

Citation: Notre utilisation occasionnelle des outils d’analyse faciale peut conduire à des applications plus sinistres (2021, 20 décembre) récupérées le 20 décembre 2021 à partir de https://techxplore.com/news/2021-12-casual-facial-analysis-tools-sinister.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.