Des algorithmes auraient pénalisé les locataires noirs. Le gouvernement américain regarde

Il y a deux ans, Mary Louis a soumis une demande pour louer un appartement à Granada Highlands à Malden, Massachusetts. Elle aimait que l’unité ait deux salles de bain complètes et qu’il y ait une piscine sur place. Mais le propriétaire lui a refusé l’appartement, prétendument en raison d’un score qui lui a été attribué par un algorithme de sélection des locataires créé par SafeRent.

Louis a répondu avec des références pour prouver 16 ans de paiements de loyer ponctuels, en vain. Au lieu de cela, elle a pris un autre appartement qui coûtait 200 $ de plus par mois dans une zone où le taux de criminalité était plus élevé. Mais un recours collectif déposé par Louis et d’autres en mai dernier fait valoir que les scores de SafeRent basés en partie sur des informations contenues dans un rapport de crédit constituaient une discrimination à l’encontre des locataires noirs et hispaniques en violation du Fair Housing Act. La législation révolutionnaire interdit la discrimination fondée sur la race, le handicap, la religion ou l’origine nationale et a été adoptée en 1968 par le Congrès une semaine après l’assassinat de Martin Luther King Jr.

Cette affaire est toujours pendante, mais le ministère américain de la Justice a utilisé la semaine dernière un mémoire déposé auprès du tribunal pour envoyer un avertissement aux propriétaires et aux fabricants d’algorithmes de sélection des locataires. SafeRent avait fait valoir que les algorithmes utilisés pour sélectionner les locataires ne sont pas soumis à la loi sur le logement équitable, car ses scores ne conseillent que les propriétaires et ne prennent pas de décisions. Le mémoire du DOJ, déposé conjointement avec le ministère du Logement et du Développement urbain, rejette cette affirmation, affirmant que la loi et la jurisprudence associée ne laissent aucune ambiguïté.

“Les fournisseurs de logements et les sociétés de sélection des locataires qui utilisent des algorithmes et des données pour sélectionner les locataires ne sont pas dégagés de toute responsabilité lorsque leurs pratiques empêchent de manière disproportionnée les personnes de couleur d’accéder à des opportunités de logement équitables”, a déclaré Kristen Clarke, chef de la division des droits civils du ministère de la Justice, dans un communiqué.

Comme dans de nombreux domaines des affaires et du gouvernement, les algorithmes qui attribuent des scores aux personnes sont devenus plus courants dans le secteur du logement. Mais bien qu’ils prétendent améliorer l’efficacité ou identifier les «meilleurs locataires», comme le suggère le matériel marketing de SafeRent, les algorithmes de sélection des locataires pourraient contribuer à une discrimination historiquement persistante en matière de logement, malgré des décennies de droit civil. Une étude de 2021 du National Bureau of Economic Research des États-Unis qui a utilisé des robots utilisant des noms associés à différents groupes pour s’appliquer à plus de 8 000 propriétaires a révélé une discrimination importante à l’égard des locataires de couleur, et en particulier des Afro-Américains.

“C’est un soulagement que cela soit pris au sérieux – il est entendu que les algorithmes ne sont pas intrinsèquement neutres ou objectifs et méritent le même niveau d’examen que les décideurs humains”, déclare Michele Gilman, professeur de droit à l’Université de Baltimore et ancien civil avocat des droits au ministère de la Justice. “Le simple fait que le DOJ soit impliqué dans cela, je pense, est un grand pas en avant.”

Une enquête menée en 2020 par The Markup et Propublica a révélé que les algorithmes de sélection des locataires rencontrent souvent des obstacles comme une erreur d’identité, en particulier pour les personnes de couleur avec des noms de famille communs. Une évaluation Propublica des algorithmes réalisée par la société texane RealPage l’année dernière a suggéré qu’elle pouvait faire grimper les loyers.

Laisser un commentaire