Explorer l’impact d’exigences d’impact plus larges pour la gouvernance de l’IA

Explorer l'impact d'exigences d'impact plus larges pour la gouvernance de l'IA

Credit: Prunkl et al.

Alors que les algorithmes d’apprentissage automatique et d’autres outils d’intelligence artificielle (IA) se répandent de plus en plus, certains gouvernements et institutions ont commencé à introduire des réglementations visant à garantir qu’ils sont conçus et mis en œuvre de manière éthique. L’année dernière, par exemple, la conférence Neural Information Processing Systems (NeurIPS) a introduit une nouvelle exigence liée à l’éthique pour tous les auteurs soumettant des recherches liées à l’IA.

Des chercheurs de l’Institute for Ethics in AI de l’Université d’Oxford, du département d’informatique et du Future of Humanity Institute ont récemment publié un document de perspective qui discute de l’impact et des implications possibles d’exigences telles que celle introduite par la conférence NeurIPS. Cet article, publié dans Intelligence artificielle de la nature, recommande également une série de mesures susceptibles de maximiser les chances de succès de ces exigences.

«L’année dernière, NeurIPS a introduit une exigence selon laquelle les auteurs soumissionnaires incluent une déclaration d’impact plus large dans leurs articles», a déclaré Carina E. Prunkl, l’une des chercheurs qui ont mené l’étude, à TechXplore. « Beaucoup de gens – dont nous – ont été pris par surprise. En réponse, nous avons décidé d’écrire deux articles sur le sujet: un guide pour les chercheurs sur la façon de commencer à réfléchir aux impacts plus larges de leur recherche et de rédiger une déclaration d’impact plus large, ainsi que cet article sur la perspective, qui vise en fait à dégager certains des impacts potentiels de ces exigences d’impact plus larges. « 

Prédire et résumer les impacts possibles d’une étude de recherche donnée est une tâche extrêmement complexe et difficile. Cela peut être encore plus difficile dans les cas où un outil ou une technique technologique donné pourrait avoir une variété d’applications dans un large éventail de paramètres.

Dans leur article, Prunkl et ses collègues s’appuient sur les résultats d’études qui ont examiné différents mécanismes de gouvernance pour délimiter les avantages, les risques et les défis possibles de l’exigence introduite par NeurIPS. En outre, ils proposent une série de stratégies qui pourraient atténuer les défis potentiels, en les divisant en quatre catégories clés: transparence, orientation, incitations et délibération.

«Notre objectif global était de contribuer à la discussion en cours sur les mécanismes de gouvernance dirigés par la communauté en sensibilisant à certains des pièges potentiels, et de fournir des suggestions constructives pour améliorer le processus», a déclaré Prunkl. « Nous commençons la discussion en examinant les effets d’autres initiatives de gouvernance, telles que les comités d’examen institutionnels, qui sont de nature similaire et impliquent également des chercheurs qui rédigent des déclarations sur les impacts de leurs recherches. »

Prunkl et ses collègues ont examiné les précédentes initiatives de gouvernance de l’IA qui demandaient aux chercheurs de préparer des déclarations sur l’impact de leur travail et ont souligné certaines des leçons apprises à propos de ces déclarations. Ils ont ensuite discuté des avantages et des risques potentiels de l’exigence globale de déclaration d’impact de NeurIPS. Enfin, ils ont préparé une liste de suggestions pour les organisateurs de conférences et la communauté ML dans son ensemble, ce qui pourrait les aider à améliorer la probabilité que de telles déclarations aient des effets positifs sur le développement de l’IA.

« Certains des avantages que nous énumérons sont une meilleure anticipation et une atténuation des effets nocifs potentiels de l’IA, ainsi qu’une meilleure communication entre les communautés de recherche et les décideurs », a déclaré Prunkl. << Si elles ne sont pas mises en œuvre avec soin, il y a un risque que les déclarations soient de mauvaise qualité, que l'éthique soit considérée comme un exercice de case à cocher ou même que l'éthique soit banalisée, en suggérant qu'il est en fait possible d'anticiper pleinement les impacts en Par ici."

Pour évaluer et prédire l’impact plus large d’une technologie donnée, les chercheurs devraient idéalement avoir une formation dans des disciplines telles que l’éthique ou la sociologie et une solide connaissance des cadres théoriques et des résultats empiriques antérieurs. Dans leur article, Prunkl et ses collègues décrivent une série de causes profondes possibles de l’échec ou des effets négatifs des initiatives de gouvernance passées. Ces causes incluent les difficultés inhérentes rencontrées lors de la tentative d’identifier les impacts plus larges d’une étude ou d’un outil technologique donné, ainsi que des pressions institutionnelles ou sociales et un manque de lignes directrices générales pour aider les chercheurs à rédiger leurs déclarations.

« Nos principales suggestions se concentrent sur quatre thèmes clés: tout d’abord, l’amélioration de la transparence et la définition des attentes, ce qui inclut la communication du but, de la motivation et des attentes ainsi que la transparence des procédures dans la manière dont ces déclarations sont évaluées », a déclaré Prunkl. « Deuxièmement, fournir des conseils, qui comprennent à la fois des conseils sur la façon de rédiger ces déclarations, ainsi que des conseils pour les arbitres sur la façon de les évaluer. »

Dans leur article, Prunkl et ses collègues soulignent également l’importance de mettre en place des incitations. Préparer des déclarations de haute qualité peut être coûteux et prendre du temps, c’est pourquoi ils estiment que les institutions devraient introduire des incitations qui encouragent davantage de chercheurs à investir beaucoup de temps et d’efforts pour réfléchir à l’impact de leurs travaux.

« Une solution serait d’intégrer l’évaluation des déclarations dans le processus d’examen par les pairs », a expliqué Prunkl. « D’autres options incluent la création de prix désignés et d’encourager les auteurs à citer d’autres déclarations d’impact. »

Le quatrième thème souligné par Prunkl et ses collègues concerne la délibération publique et communautaire. Ce dernier point dépasse le contexte des déclarations d’impact plus larges et les chercheurs estiment qu’il devrait être à la base de toute intervention visant à gouverner l’IA. Ils soulignent spécifiquement la nécessité de créer davantage de forums permettant à la communauté du ML de délibérer sur des mesures potentielles visant à faire face aux risques de l’IA.

« Trouver des solutions de gouvernance qui garantissent efficacement le développement sûr et responsable de l’IA est l’un des défis les plus urgents de nos jours », a déclaré Prunkl. « Notre article souligne la nécessité de réfléchir de manière critique à ces mécanismes de gouvernance et de réfléchir attentivement aux risques et aux défis qui pourraient survenir et qui pourraient compromettre les avantages escomptés. Enfin, notre article souligne la nécessité d’une délibération communautaire sur ces mécanismes de gouvernance. »

Prunkl et ses collègues espèrent que la liste de suggestions qu’ils ont préparée aidera les organisateurs de la conférence qui envisagent d’introduire des exigences d’impact plus larges pour surmonter les défis possibles associés au développement de l’IA. Les chercheurs prévoient actuellement d’intensifier leur travail avec les chercheurs en ML, afin de les aider davantage à préparer des déclarations d’impact de la recherche. Par exemple, ils prévoient de co-concevoir des sessions avec des chercheurs où ils créeront en collaboration des ressources qui pourraient aider les équipes à préparer ces déclarations et à identifier les impacts plus larges de leur travail.

« Le débat autour des déclarations d’impact a vraiment mis en évidence le manque de consensus sur les mécanismes de gouvernance à adopter et sur la manière de les mettre en œuvre », a déclaré Prunkl. « Dans notre article, nous soulignons la nécessité d’une délibération continue et constructive autour de ces mécanismes. En réponse à ce besoin, l’une des auteurs, Carolyn Ashurst, (avec Solon Barocas, Rosie Campbell, Deborah Raji et Stuart Russell) a organisé un NeurIPS atelier sur le thème «Naviguer dans les impacts plus larges de la recherche sur l’IA». « 

Au cours de l’atelier organisé par Ashurst et ses collègues, les participants ont discuté des déclarations d’impact et des examens éthiques de NeurIPS, ainsi que de questions plus larges autour de l’idée de recherche et développement responsable. De plus, les organisateurs ont exploré les rôles que les différentes parties au sein de l’écosystème de recherche sur le ML peuvent jouer dans la navigation dans la préparation de déclarations d’impact plus larges.

À l’avenir, Prunkl et ses collègues prévoient de créer davantage d’opportunités de délibérations et de discussions constructives liées à la gouvernance de l’IA. Leur espoir est que la communauté du ML et les autres parties impliquées dans l’utilisation de l’IA continueront à travailler ensemble pour établir des normes et des mécanismes visant à résoudre efficacement les problèmes pouvant découler de la recherche sur le ML. En outre, les chercheurs mèneront d’autres études visant à analyser les déclarations d’impact et les attitudes générales à l’égard de ces déclarations.

« Le travail pour analyser les déclarations d’impact des pré-impressions de la conférence a déjà fait surface à la fois encourageante et préoccupante », a déclaré Prunkl. « Maintenant que les versions finales des documents de conférence sont accessibles au public, nous / GovAI / notre groupe de recherche avons commencé à analyser ces déclarations, pour comprendre comment les chercheurs ont répondu à l’exigence dans la pratique. Parallèlement, des travaux supplémentaires sont nécessaires pour comprendre les attitudes actuelles. Les travaux des chercheurs d’ElementAI ont trouvé une réponse mitigée des auteurs de NeurIPS; alors que certains ont trouvé le processus utile, d’autres ont fait allusion à de nombreux défis mis en évidence dans notre article, décrivant par exemple l’exigence comme «  un fardeau supplémentaire tombe sur les épaules de chercheurs déjà surchargés de travail. » »


Le problème d’éthique de l’IA: des abstractions partout mais où sont les règles?


Plus d’information:
Institutionnaliser l’éthique dans l’IA à travers des exigences d’impact plus larges. Intelligence artificielle de la nature(2021). DOI: 10.1038 / s42256-021-00298-y.

Comme un chercheur déclarant un impact plus large pour la toute première fois. arXiv: 2011.13032 [cs.CY]. arxiv.org/abs/2011.13032

© Réseau Science X 2021

Citation: Explorer l’impact des exigences d’impact plus larges pour la gouvernance de l’IA (2021, 29 mars) récupéré le 15 avril 2021 sur https://techxplore.com/news/2021-03-exploring-impact-broader-requirements-ai.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.