La Maison Blanche connaît les risques liés à l’utilisation de l’IA par les agences fédérales. Voici comment ils le gèrent.

Les nouvelles exigences de la Maison Blanche porteront sur les risques liés à l’IA utilisée par les agences fédérales qui ont un impact quotidien sur les Américains. Cela inclut des organismes gouvernementaux comme la Transportation Security Administration et le système de santé fédéral.

Jeudi, la vice-présidente Kamala Harris a annoncé une politique radicale du Bureau de gestion du budget qui oblige toutes les agences fédérales à se protéger contre les dommages causés par l'IA, à assurer la transparence de l'utilisation de l'IA et à embaucher des experts en IA. Cette politique s'appuie sur le décret du président Joe Biden lors du Sommet mondial sur la sécurité de l'IA au Royaume-Uni en octobre dernier, ainsi que sur les initiatives décrites par Harris.

“Je crois que tous les dirigeants du gouvernement, de la société civile et du secteur privé ont le devoir moral, éthique et sociétal de veiller à ce que l'intelligence artificielle soit adoptée et développée de manière à protéger le public contre tout préjudice potentiel, tout en garantissant que chacun puisse profiter pleinement de ses avantages”, a déclaré Harris lors d'un briefing. La déclaration souligne la vision de la Maison Blanche selon laquelle l’IA doit être utilisée pour promouvoir l’intérêt public.

Cela signifie établir des règles de base strictes sur la manière dont les agences fédérales utilisent l’IA et comment elles la divulguent au public.

Garanties contre la discrimination liée à l'IA

L’exigence qui aura le plus d’impact direct sur les Américains est la mise en œuvre de garanties qui protègent contre la « discrimination algorithmique ». L'OMB exigera des agences qu'elles « évaluent, testent et surveillent » tout préjudice causé par l'IA. Plus précisément, les voyageurs peuvent refuser l'utilisation par la TSA de la technologie de reconnaissance faciale, qui s'est avérée moins précise pour les personnes à la peau plus foncée.

VOIR ÉGALEMENT:

L’IA montre des préjugés raciaux évidents lorsqu’elle est utilisée pour le recrutement, révèlent de nouveaux tests

Pour les systèmes de santé fédéraux comme Medicaid et Medicare, un humain est nécessaire pour superviser les applications de l'IA telles que les diagnostics, l'analyse des données et les logiciels de dispositifs médicaux.

La politique de l'OMB met également en évidence l'utilisation de l'IA pour détecter la fraude, qui a aidé le Département du Trésor américain à récupérer 325 millions de dollars suite à une fraude par chèque, et nécessite une surveillance humaine lorsqu'une telle technologie est utilisée. La politique poursuit en disant que si l'agence ne peut pas fournir de garanties adéquates, elle doit immédiatement cesser d'utiliser l'IA.

Des rapports de transparence pour responsabiliser les agences

Moins impactante pour les Américains au quotidien, mais tout aussi importante, l'OMB exige également que les agences fédérales fournissent publiquement des inventaires de l'IA qu'elles utilisent et de la manière dont elles « gèrent les risques pertinents ». Afin de normaliser les inventaires et de garantir la fiabilité des rapports, la CAMO dispose d'instructions détaillées sur ce qu'elle doit fournir.

La Maison Blanche recrute

Travailler avec l’IA et faire preuve de diligence raisonnable représentera beaucoup de travail pour le gouvernement, c’est pourquoi il renforce l’emploi. La politique de l'OMB exigera que chaque agence fédérale désigne un « directeur de l'IA ». Un haut responsable de l'administration a déclaré qu'il appartenait à chaque agence de déterminer si le responsable de l'IA était nommé politiquement ou non.

La Maison Blanche souhaite accroître encore davantage la main-d'œuvre en IA en s'engageant à embaucher 100 « professionnels de l'IA » par le biais d'une recherche de talents nationale. Donc, si vous en savez beaucoup sur l'IA et que vous êtes passionné par le travail au sein du gouvernement, vous pouvez assister à un salon de l'emploi le 18 avril ou consulter le site Web AI.gov de l'administration pour obtenir des informations sur l'emploi.

Essayer de ne pas étouffer l’innovation

Pour éviter que les e/accs ne s’énervent trop, la politique s’efforce également de favoriser l’innovation et le développement en encourageant (de manière responsable) l’utilisation de l’IA. Par exemple, dans le cadre de la nouvelle politique, l'Agence fédérale de gestion des urgences (FEMA) est censée utiliser l'IA pour améliorer la prévision des catastrophes environnementales, et les Centres de contrôle et de prévention des maladies (CDC) utiliseront l'apprentissage automatique pour mieux prédire la propagation des maladies. .

Dans l’ensemble, la politique de l’OMB couvre de nombreux domaines visant à créer plus de responsabilité, de transparence et de protection pour le public.

Les sujets
Gouvernement d'Intelligence Artificielle


rewrite this content and keep HTML tags

Les nouvelles exigences de la Maison Blanche porteront sur les risques liés à l’IA utilisée par les agences fédérales qui ont un impact quotidien sur les Américains. Cela inclut des organismes gouvernementaux comme la Transportation Security Administration et le système de santé fédéral.

Jeudi, la vice-présidente Kamala Harris a annoncé une politique radicale du Bureau de gestion du budget qui oblige toutes les agences fédérales à se protéger contre les dommages causés par l'IA, à assurer la transparence de l'utilisation de l'IA et à embaucher des experts en IA. Cette politique s'appuie sur le décret du président Joe Biden lors du Sommet mondial sur la sécurité de l'IA au Royaume-Uni en octobre dernier, ainsi que sur les initiatives décrites par Harris.

“Je crois que tous les dirigeants du gouvernement, de la société civile et du secteur privé ont le devoir moral, éthique et sociétal de veiller à ce que l'intelligence artificielle soit adoptée et développée de manière à protéger le public contre tout préjudice potentiel, tout en garantissant que chacun puisse profiter pleinement de ses avantages”, a déclaré Harris lors d'un briefing. La déclaration souligne la vision de la Maison Blanche selon laquelle l’IA doit être utilisée pour promouvoir l’intérêt public.

Cela signifie établir des règles de base strictes sur la manière dont les agences fédérales utilisent l’IA et comment elles la divulguent au public.

Garanties contre la discrimination liée à l'IA

L’exigence qui aura le plus d’impact direct sur les Américains est la mise en œuvre de garanties qui protègent contre la « discrimination algorithmique ». L'OMB exigera des agences qu'elles « évaluent, testent et surveillent » tout préjudice causé par l'IA. Plus précisément, les voyageurs peuvent refuser l'utilisation par la TSA de la technologie de reconnaissance faciale, qui s'est avérée moins précise pour les personnes à la peau plus foncée.

VOIR ÉGALEMENT:

L’IA montre des préjugés raciaux évidents lorsqu’elle est utilisée pour le recrutement, révèlent de nouveaux tests

Pour les systèmes de santé fédéraux comme Medicaid et Medicare, un humain est nécessaire pour superviser les applications de l'IA telles que les diagnostics, l'analyse des données et les logiciels de dispositifs médicaux.

La politique de l'OMB met également en évidence l'utilisation de l'IA pour détecter la fraude, qui a aidé le Département du Trésor américain à récupérer 325 millions de dollars suite à une fraude par chèque, et nécessite une surveillance humaine lorsqu'une telle technologie est utilisée. La politique poursuit en disant que si l'agence ne peut pas fournir de garanties adéquates, elle doit immédiatement cesser d'utiliser l'IA.

Des rapports de transparence pour responsabiliser les agences

Moins impactante pour les Américains au quotidien, mais tout aussi importante, l'OMB exige également que les agences fédérales fournissent publiquement des inventaires de l'IA qu'elles utilisent et de la manière dont elles « gèrent les risques pertinents ». Afin de normaliser les inventaires et de garantir la fiabilité des rapports, la CAMO dispose d'instructions détaillées sur ce qu'elle doit fournir.

La Maison Blanche recrute

Travailler avec l’IA et faire preuve de diligence raisonnable représentera beaucoup de travail pour le gouvernement, c’est pourquoi il renforce l’emploi. La politique de l'OMB exigera que chaque agence fédérale désigne un « directeur de l'IA ». Un haut responsable de l'administration a déclaré qu'il appartenait à chaque agence de déterminer si le responsable de l'IA était nommé politiquement ou non.

La Maison Blanche souhaite accroître encore davantage la main-d'œuvre en IA en s'engageant à embaucher 100 « professionnels de l'IA » par le biais d'une recherche de talents nationale. Donc, si vous en savez beaucoup sur l'IA et que vous êtes passionné par le travail au sein du gouvernement, vous pouvez assister à un salon de l'emploi le 18 avril ou consulter le site Web AI.gov de l'administration pour obtenir des informations sur l'emploi.

Essayer de ne pas étouffer l’innovation

Pour éviter que les e/accs ne s’énervent trop, la politique s’efforce également de favoriser l’innovation et le développement en encourageant (de manière responsable) l’utilisation de l’IA. Par exemple, dans le cadre de la nouvelle politique, l'Agence fédérale de gestion des urgences (FEMA) est censée utiliser l'IA pour améliorer la prévision des catastrophes environnementales, et les Centres de contrôle et de prévention des maladies (CDC) utiliseront l'apprentissage automatique pour mieux prédire la propagation des maladies. .

Dans l’ensemble, la politique de l’OMB couvre de nombreux domaines visant à créer plus de responsabilité, de transparence et de protection pour le public.

Les sujets
Gouvernement d'Intelligence Artificielle

Laisser un commentaire