Microsoft présente sa vision pour garder l’IA sous contrôle

Le président de Microsoft, Brad Smith, participe à une table ronde avec l’ancien président américain Donald Trump et des dirigeants de l’industrie sur la réouverture du pays, dans la salle à manger d’État de la Maison Blanche à Washington, le 29 mai 2020.

Mandel Ngân | AFP | Getty Images

Microsoft a énoncé cinq principes que le gouvernement devrait envisager pour réglementer l’intelligence artificielle alors qu’il se dépêche de s’assurer que les lois et l’application peuvent suivre l’évolution rapide de la technologie.

Les principes annoncés jeudi par le président de Microsoft, Brad Smith, sont les suivants :

– Installer et s’appuyer sur des cadres de sécurité de l’IA dirigés par le gouvernement, tels que le cadre de gestion des risques de l’IA de l’Institut national des normes et de la technologie des États-Unis.
— Exiger des pauses de sécurité lorsque l’IA est utilisée pour contrôler des infrastructures critiques.
— Créer un cadre juridique et réglementaire pour les applications, les modèles de base avancés et l’infrastructure d’IA.
— Promouvoir la transparence et financer la recherche universitaire et à but non lucratif.
— Créer des partenariats public-privé pour utiliser l’IA afin de traiter l’effet qu’elle aura sur la société, dans des domaines tels que la démocratie et la main-d’œuvre.

Smith a suggéré que les services d’IA devraient adopter un cadre du secteur des services financiers : Know Your Customer, ou KYC. Dans ce cas, cependant, il devrait s’agir de KY3C, ce qui signifie que les développeurs d’IA doivent connaître leur cloud, leurs clients et leur contenu pour limiter la fraude ou l’utilisation trompeuse.

Smith a annoncé le nouveau cadre lors d’un événement à Washington, DC, jeudi. C’est la dernière poussée d’un acteur de premier plan de l’industrie pour que le gouvernement crée et applique des garde-corps sur la façon dont la technologie est utilisée, car d’autres dans le domaine ont averti que les conséquences importantes d’un développement non réglementé devraient justifier une pause.

La semaine dernière, Sam Altman, PDG de ChatGPT-maker OpenAI, a exhorté un sous-comité sénatorial à mettre en œuvre des protections et des garde-corps sur la technologie. Alors que certains législateurs du panel ont loué l’ouverture d’Altman à la réglementation, d’éminents chercheurs qui se sont entretenus avec CNBC après l’audience ont averti que le Congrès ne devrait pas être trop influencé par des propositions soutenues par des intérêts commerciaux et devrait plutôt envisager un éventail de voix d’experts.

Microsoft a déclaré qu’il investit des milliards de dollars dans OpenAI alors qu’il cherche à être un leader dans le domaine.

Abonnez-vous à CNBC sur YouTube.

REGARDER : Microsoft apporte un chatbot IA à l’analyse des données et Bing à ChatGPT

Microsoft apporte un chatbot IA à l'analyse des données et Bing à ChatGPT

rewrite this content and keep HTML tags

Le président de Microsoft, Brad Smith, participe à une table ronde avec l’ancien président américain Donald Trump et des dirigeants de l’industrie sur la réouverture du pays, dans la salle à manger d’État de la Maison Blanche à Washington, le 29 mai 2020.

Mandel Ngân | AFP | Getty Images

Microsoft a énoncé cinq principes que le gouvernement devrait envisager pour réglementer l’intelligence artificielle alors qu’il se dépêche de s’assurer que les lois et l’application peuvent suivre l’évolution rapide de la technologie.

Les principes annoncés jeudi par le président de Microsoft, Brad Smith, sont les suivants :

– Installer et s’appuyer sur des cadres de sécurité de l’IA dirigés par le gouvernement, tels que le cadre de gestion des risques de l’IA de l’Institut national des normes et de la technologie des États-Unis.
— Exiger des pauses de sécurité lorsque l’IA est utilisée pour contrôler des infrastructures critiques.
— Créer un cadre juridique et réglementaire pour les applications, les modèles de base avancés et l’infrastructure d’IA.
— Promouvoir la transparence et financer la recherche universitaire et à but non lucratif.
— Créer des partenariats public-privé pour utiliser l’IA afin de traiter l’effet qu’elle aura sur la société, dans des domaines tels que la démocratie et la main-d’œuvre.

Smith a suggéré que les services d’IA devraient adopter un cadre du secteur des services financiers : Know Your Customer, ou KYC. Dans ce cas, cependant, il devrait s’agir de KY3C, ce qui signifie que les développeurs d’IA doivent connaître leur cloud, leurs clients et leur contenu pour limiter la fraude ou l’utilisation trompeuse.

Smith a annoncé le nouveau cadre lors d’un événement à Washington, DC, jeudi. C’est la dernière poussée d’un acteur de premier plan de l’industrie pour que le gouvernement crée et applique des garde-corps sur la façon dont la technologie est utilisée, car d’autres dans le domaine ont averti que les conséquences importantes d’un développement non réglementé devraient justifier une pause.

La semaine dernière, Sam Altman, PDG de ChatGPT-maker OpenAI, a exhorté un sous-comité sénatorial à mettre en œuvre des protections et des garde-corps sur la technologie. Alors que certains législateurs du panel ont loué l’ouverture d’Altman à la réglementation, d’éminents chercheurs qui se sont entretenus avec CNBC après l’audience ont averti que le Congrès ne devrait pas être trop influencé par des propositions soutenues par des intérêts commerciaux et devrait plutôt envisager un éventail de voix d’experts.

Microsoft a déclaré qu’il investit des milliards de dollars dans OpenAI alors qu’il cherche à être un leader dans le domaine.

Abonnez-vous à CNBC sur YouTube.

REGARDER : Microsoft apporte un chatbot IA à l’analyse des données et Bing à ChatGPT

Microsoft apporte un chatbot IA à l'analyse des données et Bing à ChatGPT

Laisser un commentaire