L’algorithme de diffusion d’annonces de Facebook est discriminatoire en fonction de la race, du sexe et de l’âge sur les photos, selon des chercheurs

L'algorithme de diffusion d'annonces de Facebook est discriminatoire en fonction de la race, du sexe et de l'âge sur les photos, selon des chercheurs

Crédit : Matthew Modoono/Northeastern University

Avez-vous déjà remarqué que les visages des publicités Facebook semblent correspondre à votre sexe, votre race ou votre âge ? Ce n’est pas un accident, disent les chercheurs en informatique du Nord-Est.

Un nouvel article publié par un groupe de chercheurs du Khoury College of Computer Sciences de Northeastern a révélé que l’algorithme de Facebook diffuse des publicités différemment en fonction de la personne représentée dans l’annonce.

“Lorsque vous choisissez d’inclure une photo d’une personne noire, cela augmentera considérablement la probabilité que l’annonce soit diffusée aux utilisateurs noirs”, déclare Alan Mislove, professeur et doyen associé principal pour les affaires académiques à Khoury et l’un des auteurs de la recherche. “Lorsque vous choisissez d’inclure une photo d’une femme par rapport à un homme, en général, cela ira davantage aux femmes, à l’exception des images de jeunes femmes, qui iront davantage aux hommes plus âgés.”

La publicité discriminatoire est bien documentée sur Facebook. En juin, le ministère américain de la Justice a obtenu un accord de règlement après avoir accusé Meta de biais algorithmique pour son système de diffusion d’annonces immobilières. L’article lui-même fait partie d’un objectif plus large sur l’audit algorithmique et la diffusion de publicités pour Mislove, co-auteur de l’article avec le chercheur associé de Khoury, Piotr Sapiezynski, Ph.D. le candidat Levi Kaplan et l’étudiante de troisième année en cybersécurité Nicole Gerzon.

Les travaux antérieurs des chercheurs ont montré à quel point le système de diffusion des publicités de Facebook était problématique, faussant la diffusion des publicités selon des critères largement démographiques. Les offres d’emploi dans l’industrie du bois sont livrées de manière disproportionnée aux hommes blancs, tandis que les emplois pour les postes de conciergerie vont de manière disproportionnée aux femmes noires, selon Mislove.

Mislove dit que cela se produit souvent indépendamment de ce que les annonceurs ont dit au système de diffusion d’annonces de Facebook. La façon dont cela fonctionne est que les annonceurs téléchargent leur annonce sur Facebook, puis spécifient leur public cible, comme les 18 à 35 ans à Boston.

“C’est une grande population”, dit Mislove. “Votre annonce ne sera très probablement pas montrée à tous. L’algorithme va décider, dans un certain sens, quel sous-ensemble les voit, et il le fait en faisant une estimation de la pertinence, c’est-à-dire quels utilisateurs sont les plus susceptibles d’interagir avec cela .”

Mais comment l’algorithme apprend-il à discriminer ? Comme tout algorithme, le système de diffusion de publicités de Facebook est formé à l’aide de données. Dans ce cas, cela inclut toutes les données que Meta a collectées sur toutes les publicités précédentes qui ont été diffusées sur Facebook et qui a cliqué sur ces publicités. Cette dernière recherche montre que l’image incluse dans l’annonce est celle à laquelle l’algorithme de Facebook répond le plus fortement.

“L’algorithme va comprendre : “Qu’est-ce que je peux utiliser qui est le plus susceptible de faire cliquer quelqu’un ?”, explique Mislove. “Dans ce cas, la race et le sexe sont prédictifs du fait que quelqu’un va cliquer, il utilise donc cela. simplement parce que c’est exactement ce pour quoi il est conçu.”

L’algorithme ne connaît pas ou ne se soucie pas de la race, du sexe et de l’âge, mais il utilise toujours ces fonctionnalités pour faire des estimations “très grossières” sur l’endroit où envoyer des annonces de logement ou d’emploi, dit Sapiezynski.

“Facebook pourrait probablement dire qu’il n’essaie pas de faire une classification raciale à partir d’images, mais les résultats que nous présentons montrent, à un certain niveau, que cela se produit parce que l’algorithme ne reconnaît pas qu’il s’agit simplement d’une publicité d’une personne mais c’est un type particulier de personne avec qui les Noirs sont plus susceptibles de s’engager », déclare Sapiezynski. “Donc, effectivement, il fait le classement des races sur des photos de personnes.”

Dans certains cas, cela peut être exactement ce que recherche un annonceur. S’ils veulent attirer plus de femmes ou de personnes de couleur, ils utiliseront probablement des images avec des femmes et des personnes de couleur et l’algorithme en tiendra compte lorsqu’il diffusera l’annonce. Dans d’autres cas, cela peut être extrêmement problématique. Dans ce que Mislove a appelé le Creepy Old Man Effect, les publicités mettant en vedette des jeunes femmes ont été diffusées de manière disproportionnée aux hommes plus âgés.

Une partie du défi est qu’il y a très peu de transparence en ce qui concerne le fonctionnement de ce système. Mislove, Sapiezynski et leur équipe ont dépensé des dizaines de milliers de dollars et d’innombrables heures pour mettre en place les campagnes publicitaires qu’ils ont utilisées pour comprendre le fonctionnement de ce système. Mais l’annonceur moyen n’a pas nécessairement le temps ou les ressources pour le faire.

Il existe également des questions politiques plus larges sur la manière dont les protections existantes des droits civils jouent sur les algorithmes et l’intelligence artificielle. La loi sur le logement équitable, la loi sur l’égalité des chances en matière de crédit et la loi sur la discrimination fondée sur l’âge dans l’emploi incluent toutes des réglementations concernant la publicité traditionnelle, mais pas les publicités sur les réseaux sociaux.

“Nous devons préciser quand cela se produit, à qui cela se produit, puis donner aux annonceurs le contrôle de dire : “Peut-être que je ne veux pas que cet algorithme de diffusion d’annonces fasse cela sur une annonce d’opportunité où cela pourrait être illégal en raison de protections des droits civiques », dit Mislove.

Entre le récent procès du ministère de la Justice contre Meta et le projet de la Maison Blanche pour une déclaration des droits de l’IA, le débat autour des implications réelles de ces systèmes s’intensifie. Les entreprises de médias sociaux font pression pour l’autorégulation, mais Mislove dit qu’il n’y a aucune garantie que cela résoudrait le problème.

“Je pense qu’ils ont de mauvais antécédents en matière d’autorégulation”, déclare Mislove. “Dans de nombreux cas, ils ne veulent pas s’engager sur ces questions car cela est au cœur de leur modèle commercial. … Vous auriez certainement besoin de réglementation et de lois pour déterminer ce que vous pouvez faire, mais la meilleure façon de faire n’est pas claire. pour le faire encore.”

La recherche a été publiée dans le cadre de la Actes de la 22e conférence sur les mesures Internet de l’ACM.


Le système de diffusion d’annonces de Facebook continue de discriminer selon la race, le sexe et l’âge


Plus d’information:
Levi Kaplan et al, Mesure et analyse de l’identité implicite dans l’optimisation de la diffusion des publicités, Actes de la 22e conférence sur les mesures Internet de l’ACM (2022). DOI : 10.1145/3517745.3561450

Fourni par l’Université du Nord-Est

Citation: L’algorithme de diffusion d’annonces de Facebook est discriminatoire en fonction de la race, du sexe et de l’âge sur les photos, selon des chercheurs (2022, 25 octobre) récupéré le 25 octobre 2022 sur https://techxplore.com/news/2022-10-facebook-ad-delivery- algorithme-discriminant.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.