Alors que Microsoft adopte l’IA, il demande également une nouvelle réglementation pour réduire les risques

Microsoft se joint aux appels pour une réglementation accrue de l’industrie de l’intelligence artificielle, notamment en suggérant une nouvelle agence gouvernementale pour superviser les lois et les licences des systèmes d’IA.

Jeudi, Microsoft a partagé un rapport de 40 pages qui présente un plan de réglementation des technologies d’IA, avec des suggestions telles que la mise en œuvre d’un “cadre de sécurité de l’IA dirigé par le gouvernement” et l’élaboration de mesures pour dissuader l’utilisation de l’IA pour tromper ou frauder les gens. Le rapport appelle également à une nouvelle agence gouvernementale pour mettre en œuvre toutes les lois ou réglementations adoptées pour régir l’IA.

“Les garde-corps nécessaires à l’IA nécessitent un sens des responsabilités largement partagé et ne doivent pas être laissés aux seules entreprises technologiques”, a déclaré le président de Microsoft, Brad Smith, dans l’introduction du rapport, intitulé “Governing AI: A Blueprint for the Future”.

Voir également: Widgets Microsoft Bing AI Chat : comment les obtenir sur iOS et Android

Microsoft a rapidement déployé des outils et des fonctionnalités d’IA génératifs pour ses logiciels et autres produits alimentés par la technologie d’OpenAI, le fabricant de ChatGPT. Microsoft a investi des milliards dans OpenAI et a également conclu un accord pour permettre à la centrale de l’IA d’utiliser les données du moteur de recherche Bing pour améliorer ChatGPT.

L’appel de Microsoft à une réglementation accrue intervient après que le PDG d’OpenAI, Sam Altman, a exprimé des sentiments similaires lors de son témoignage devant le Congrès le 16 mai. et restreindre les systèmes d’IA.

Après qu’OpenAI a dévoilé ChatGPT à la fin de l’année dernière, Microsoft a contribué à alimenter la course actuelle au lancement de nouveaux outils d’IA avec la sortie d’une nouvelle recherche Bing basée sur l’IA en février. Depuis lors, nous avons vu un flot d’outils et de fonctionnalités génératifs infusés d’IA de Google, Adobe, Meta et autres. Bien que ces outils aient un vaste potentiel pour aider les gens dans des tâches grandes et petites, ils ont également suscité des inquiétudes quant aux risques potentiels de l’IA.

En mars, une lettre ouverte publiée par l’Institut à but non lucratif Future of Life a appelé à une pause dans le développement de systèmes d’IA plus avancés que le GPT-4 d’OpenAI, avertissant qu’ils pourraient “présenter des risques profonds pour la société et l’humanité”. La lettre a été signée par plus de 1 000 personnes, dont le PDG de Tesla, Elon Musk, le co-fondateur d’Apple, Steve Wozniak, et des experts en IA, en informatique et dans d’autres domaines.

Microsoft a reconnu ces risques dans son rapport jeudi, affirmant qu’un cadre réglementaire est nécessaire pour anticiper et anticiper les problèmes potentiels.

“Nous devons reconnaître la simple vérité que tous les acteurs ne sont pas bien intentionnés ou bien équipés pour relever les défis que présentent les modèles hautement performants”, lit-on dans le rapport. “Certains acteurs utiliseront l’IA comme une arme, pas comme un outil, et d’autres sous-estimeront les défis de sécurité qui les attendent.”

Laisser un commentaire