La Maison Blanche met de nouveaux garde-fous à l’utilisation de l’IA par le gouvernement

Le gouvernement américain a publié jeudi de nouvelles règles exigeant plus de prudence et de transparence de la part des agences fédérales utilisant l'intelligence artificielle, affirmant qu'elles sont nécessaires pour protéger le public à mesure que l'IA progresse rapidement. Mais la nouvelle politique contient également des dispositions visant à encourager l’innovation en matière d’IA dans les agences gouvernementales lorsque la technologie peut être utilisée pour le bien public.

Les États-Unis espèrent devenir un leader international avec leur nouveau régime d’IA gouvernementale. La vice-présidente Kamala Harris a déclaré lors d'un point de presse avant l'annonce que l'administration envisageait que ces politiques « servent de modèle pour une action mondiale ». Elle a déclaré que les États-Unis « continueront d’appeler toutes les nations à suivre notre exemple et à donner la priorité à l’intérêt public lorsqu’il s’agit de l’utilisation de l’IA par les gouvernements ».

La nouvelle politique du Bureau de la gestion et du budget de la Maison Blanche guidera l’utilisation de l’IA dans l’ensemble du gouvernement fédéral. Cela nécessite plus de transparence sur la manière dont le gouvernement utilise l’IA et appelle également à davantage de développement de la technologie au sein des agences fédérales. Cette politique voit l’administration tenter de trouver un équilibre entre l’atténuation des risques liés à une utilisation plus poussée de l’IA – dont l’étendue n’est pas connue – et l’utilisation d’outils d’IA pour résoudre des menaces existentielles telles que le changement climatique et les maladies.

Cette annonce s’ajoute à une série de mesures prises par l’administration Biden pour adopter et restreindre l’IA. En octobre, le président Biden a signé un décret ambitieux sur l’IA qui encouragerait le développement de la technologie de l’IA par le gouvernement, mais obligerait également ceux qui fabriquent de grands modèles d’IA à fournir au gouvernement des informations sur leurs activités, dans l’intérêt de la sécurité nationale.

En novembre, les États-Unis se sont joints au Royaume-Uni, à la Chine et aux membres de l’UE pour signer une déclaration reconnaissant les dangers des progrès rapides de l’IA, mais appelant également à une collaboration internationale. Harris a révélé la même semaine une déclaration non contraignante sur l’utilisation militaire de l’IA, signée par 31 pays. Il met en place des garde-fous rudimentaires et appelle à la désactivation des systèmes qui se livrent à des « comportements involontaires ».

La nouvelle politique d'utilisation de l'IA par le gouvernement américain annoncée jeudi demande aux agences de prendre plusieurs mesures pour éviter les conséquences involontaires des déploiements d'IA. Pour commencer, les agences doivent vérifier que les outils d’IA qu’elles utilisent ne mettent pas les Américains en danger. Par exemple, pour que le ministère des Anciens Combattants puisse utiliser l’IA dans ses hôpitaux, il doit vérifier que la technologie ne donne pas de diagnostics racistes. Des recherches ont montré que les systèmes d’IA et d’autres algorithmes utilisés pour éclairer le diagnostic ou décider quels patients recevront des soins peuvent renforcer les schémas historiques de discrimination.

Si une agence ne peut garantir de telles garanties, elle doit cesser d’utiliser le système d’IA ou justifier son utilisation continue. Les agences américaines ont jusqu'au 1er décembre pour se conformer à ces nouvelles exigences.

La politique demande également plus de transparence sur les systèmes d'IA du gouvernement, obligeant les agences à divulguer les modèles, les données et le code d'IA appartenant au gouvernement, à condition que la divulgation de ces informations ne constitue pas une menace pour le public ou le gouvernement. Les agences doivent rendre compte publiquement chaque année de la manière dont elles utilisent l’IA, des risques potentiels que posent les systèmes et de la manière dont ces risques sont atténués.

Et les nouvelles règles exigent également que les agences fédérales renforcent leur expertise en matière d'IA, en obligeant chacune à nommer un responsable de l'IA pour superviser toute l'IA utilisée au sein de cette agence. C'est un rôle qui se concentre sur la promotion de l'innovation en matière d'IA et sur la surveillance de ses dangers.

Les responsables affirment que les changements supprimeront également certains obstacles à l’utilisation de l’IA dans les agences fédérales, une mesure qui pourrait faciliter une expérimentation plus responsable de l’IA. La technologie a le potentiel d’aider les agences à évaluer les dommages causés par les catastrophes naturelles, à prévoir les conditions météorologiques extrêmes, à cartographier la propagation des maladies et à contrôler le trafic aérien.

Des pays du monde entier s’efforcent de réglementer l’IA. L’UE a voté en décembre l’adoption de sa loi sur l’IA, une mesure qui régit la création et l’utilisation des technologies d’IA, et l’a officiellement adoptée au début du mois. La Chine travaille également à une réglementation globale de l’IA.

rewrite this content and keep HTML tags

Le gouvernement américain a publié jeudi de nouvelles règles exigeant plus de prudence et de transparence de la part des agences fédérales utilisant l'intelligence artificielle, affirmant qu'elles sont nécessaires pour protéger le public à mesure que l'IA progresse rapidement. Mais la nouvelle politique contient également des dispositions visant à encourager l’innovation en matière d’IA dans les agences gouvernementales lorsque la technologie peut être utilisée pour le bien public.

Les États-Unis espèrent devenir un leader international avec leur nouveau régime d’IA gouvernementale. La vice-présidente Kamala Harris a déclaré lors d'un point de presse avant l'annonce que l'administration envisageait que ces politiques « servent de modèle pour une action mondiale ». Elle a déclaré que les États-Unis « continueront d’appeler toutes les nations à suivre notre exemple et à donner la priorité à l’intérêt public lorsqu’il s’agit de l’utilisation de l’IA par les gouvernements ».

La nouvelle politique du Bureau de la gestion et du budget de la Maison Blanche guidera l’utilisation de l’IA dans l’ensemble du gouvernement fédéral. Cela nécessite plus de transparence sur la manière dont le gouvernement utilise l’IA et appelle également à davantage de développement de la technologie au sein des agences fédérales. Cette politique voit l’administration tenter de trouver un équilibre entre l’atténuation des risques liés à une utilisation plus poussée de l’IA – dont l’étendue n’est pas connue – et l’utilisation d’outils d’IA pour résoudre des menaces existentielles telles que le changement climatique et les maladies.

Cette annonce s’ajoute à une série de mesures prises par l’administration Biden pour adopter et restreindre l’IA. En octobre, le président Biden a signé un décret ambitieux sur l’IA qui encouragerait le développement de la technologie de l’IA par le gouvernement, mais obligerait également ceux qui fabriquent de grands modèles d’IA à fournir au gouvernement des informations sur leurs activités, dans l’intérêt de la sécurité nationale.

En novembre, les États-Unis se sont joints au Royaume-Uni, à la Chine et aux membres de l’UE pour signer une déclaration reconnaissant les dangers des progrès rapides de l’IA, mais appelant également à une collaboration internationale. Harris a révélé la même semaine une déclaration non contraignante sur l’utilisation militaire de l’IA, signée par 31 pays. Il met en place des garde-fous rudimentaires et appelle à la désactivation des systèmes qui se livrent à des « comportements involontaires ».

La nouvelle politique d'utilisation de l'IA par le gouvernement américain annoncée jeudi demande aux agences de prendre plusieurs mesures pour éviter les conséquences involontaires des déploiements d'IA. Pour commencer, les agences doivent vérifier que les outils d’IA qu’elles utilisent ne mettent pas les Américains en danger. Par exemple, pour que le ministère des Anciens Combattants puisse utiliser l’IA dans ses hôpitaux, il doit vérifier que la technologie ne donne pas de diagnostics racistes. Des recherches ont montré que les systèmes d’IA et d’autres algorithmes utilisés pour éclairer le diagnostic ou décider quels patients recevront des soins peuvent renforcer les schémas historiques de discrimination.

Si une agence ne peut garantir de telles garanties, elle doit cesser d’utiliser le système d’IA ou justifier son utilisation continue. Les agences américaines ont jusqu'au 1er décembre pour se conformer à ces nouvelles exigences.

La politique demande également plus de transparence sur les systèmes d'IA du gouvernement, obligeant les agences à divulguer les modèles, les données et le code d'IA appartenant au gouvernement, à condition que la divulgation de ces informations ne constitue pas une menace pour le public ou le gouvernement. Les agences doivent rendre compte publiquement chaque année de la manière dont elles utilisent l’IA, des risques potentiels que posent les systèmes et de la manière dont ces risques sont atténués.

Et les nouvelles règles exigent également que les agences fédérales renforcent leur expertise en matière d'IA, en obligeant chacune à nommer un responsable de l'IA pour superviser toute l'IA utilisée au sein de cette agence. C'est un rôle qui se concentre sur la promotion de l'innovation en matière d'IA et sur la surveillance de ses dangers.

Les responsables affirment que les changements supprimeront également certains obstacles à l’utilisation de l’IA dans les agences fédérales, une mesure qui pourrait faciliter une expérimentation plus responsable de l’IA. La technologie a le potentiel d’aider les agences à évaluer les dommages causés par les catastrophes naturelles, à prévoir les conditions météorologiques extrêmes, à cartographier la propagation des maladies et à contrôler le trafic aérien.

Des pays du monde entier s’efforcent de réglementer l’IA. L’UE a voté en décembre l’adoption de sa loi sur l’IA, une mesure qui régit la création et l’utilisation des technologies d’IA, et l’a officiellement adoptée au début du mois. La Chine travaille également à une réglementation globale de l’IA.

Laisser un commentaire