Le biais des soins de santé est dangereux. Mais les algorithmes d’« équité » le sont aussi

En fait, ce que nous avons décrit ici est en fait un meilleur scénario, dans lequel il est possible de faire respecter l’équité en apportant des modifications simples qui affectent les performances de chaque groupe. En pratique, les algorithmes d’équité peuvent se comporter de manière beaucoup plus radicale et imprévisible. Cette enquête a révélé qu’en moyenne, la plupart des algorithmes de vision par ordinateur amélioraient l’équité en nuisant à tous les groupes, par exemple en diminuant le rappel et la précision. Contrairement à notre hypothèse, où nous avons diminué les dommages subis par un groupe, il est possible que le nivellement vers le bas puisse aggraver directement la situation de tout le monde.

Nivellement des pistes contraire aux objectifs d’équité algorithmique et aux objectifs d’égalité plus larges dans la société : pour améliorer les résultats des groupes historiquement défavorisés ou marginalisés. La baisse des performances des groupes les plus performants ne profite évidemment pas aux groupes les moins performants. De plus, le nivellement par le bas peut nuire directement aux groupes historiquement défavorisés. Le choix de supprimer un avantage plutôt que de le partager avec d’autres témoigne d’un manque d’intérêt, de solidarité et de volonté de saisir l’occasion pour régler réellement le problème. Il stigmatise les groupes historiquement défavorisés et renforce la séparation et l’inégalité sociale qui ont conduit à un problème en premier lieu.

Lorsque nous construisons des systèmes d’IA pour prendre des décisions concernant la vie des gens, nos décisions de conception encodent des jugements de valeur implicites sur ce qui devrait être priorisé. Le nivellement par le bas est une conséquence du choix de mesurer et de redresser l’équité uniquement en termes de disparité entre les groupes, tout en ignorant l’utilité, le bien-être, la priorité et d’autres biens qui sont au cœur des questions d’égalité dans le monde réel. Ce n’est pas le destin inévitable de l’équité algorithmique ; c’est plutôt le résultat d’avoir emprunté la voie de la moindre résistance mathématique, et non pour des raisons sociétales, juridiques ou éthiques primordiales.

Pour avancer, nous avons trois options :

• Nous pouvons continuer à déployer des systèmes biaisés qui ne profitent ostensiblement qu’à un segment privilégié de la population tout en nuisant gravement aux autres.
• Nous pouvons continuer à définir l’équité en termes mathématiques formalistes et déployer une IA moins précise pour tous les groupes et activement nuisible pour certains groupes.
• Nous pouvons agir et atteindre l’équité en « nivelant vers le haut ».

Nous pensons que la mise à niveau est la seule voie moralement, éthiquement et légalement acceptable. Le défi pour l’avenir de l’équité dans l’IA est de créer des systèmes équitables sur le fond, et pas seulement équitables sur le plan procédural par le biais d’un nivellement par le bas. La mise à niveau est un défi plus complexe : elle doit être associée à des étapes actives pour éliminer les causes réelles des biais dans les systèmes d’IA. Les solutions techniques ne sont souvent qu’un pansement pour faire face à un système en panne. L’amélioration de l’accès aux soins de santé, la conservation d’ensembles de données plus diversifiés et le développement d’outils qui ciblent spécifiquement les problèmes rencontrés par les communautés historiquement défavorisées peuvent aider à faire de l’équité substantielle une réalité.

C’est un défi beaucoup plus complexe que de simplement peaufiner un système pour rendre deux nombres égaux entre les groupes. Cela peut nécessiter non seulement d’importantes innovations technologiques et méthodologiques, y compris une refonte complète des systèmes d’IA, mais également des changements sociaux substantiels dans des domaines tels que l’accès aux soins de santé et les dépenses.

Aussi difficile soit-il, ce recentrage sur « l’IA équitable » est essentiel. Les systèmes d’IA prennent des décisions qui changent la vie. Les choix concernant la manière dont ils doivent être équitables et pour qui sont trop importants pour traiter l’équité comme un simple problème mathématique à résoudre. C’est le statu quo qui a abouti à des méthodes d’équité qui réalisent l’égalité par le nivellement vers le bas. Jusqu’à présent, nous avons créé des méthodes qui sont mathématiquement justes, mais qui ne peuvent pas et ne bénéficient pas de manière démontrable aux groupes défavorisés.

Ce n’est pas assez. Les outils existants sont traités comme une solution à l’équité algorithmique, mais jusqu’à présent, ils ne tiennent pas leurs promesses. Leurs effets moralement obscurs les rendent moins susceptibles d’être utilisés et peuvent ralentir les véritables solutions à ces problèmes. Ce dont nous avons besoin, ce sont des systèmes équitables grâce à la mise à niveau, qui aident les groupes avec de moins bonnes performances sans nuire arbitrairement aux autres. C’est le défi que nous devons maintenant résoudre. Nous avons besoin d’une IA équitable sur le fond, et pas seulement sur le plan mathématique.

Laisser un commentaire