Google va travailler avec l’Europe sur un pacte provisoire sur l’IA

Sundar Pichai de Google a accepté de travailler avec les législateurs européens sur ce que l’on appelle un “pacte sur l’IA” – apparemment un ensemble provisoire de règles ou de normes volontaires tandis que des réglementations formelles pour l’application de l’IA sont toujours en cours d’élaboration.

Pichai rencontrait Thierry Breton, commissaire au marché intérieur de l’Union européenne, qui a publié une déclaration après la conférence d’aujourd’hui — disant : “Il n’y a pas de temps à perdre dans la course à l’IA pour créer un environnement en ligne sûr.”

Un briefing publié par son bureau après la réunion a également déclaré que l’UE souhaitait être “proactive” et travailler sur un pacte sur l’IA avant la future législation européenne qui devrait s’appliquer à l’IA.

La note ajoute que le bloc veut lancer un pacte sur l’IA “impliquant tous les principaux acteurs européens et non européens de l’IA sur une base volontaire” et avant le délai légal de la loi paneuropéenne sur l’IA susmentionnée.

Cependant, à l’heure actuelle, le seul nom de géant de la technologie qui a été publiquement associé à l’initiative est celui de Google.

Nous avons contacté Google et la Commission européenne avec des questions sur l’initiative.

Dans d’autres remarques publiques, Breton a déclaré:

Nous attendons de la technologie en Europe qu’elle respecte toutes nos règles en matière de protection des données, de sécurité en ligne et d’intelligence artificielle. En Europe, ce n’est pas choisir.

Je suis heureux que Sundar Pichai le reconnaisse et qu’il s’engage à respecter toutes les règles de l’UE.

Le RGPD [General Data Protection Regulation] est en place. L’ASD [Digital Services Act] et DMA [Digital Markets Act] sont mis en œuvre. Les négociations sur la loi sur l’IA approchent de la phase finale et j’appelle le Parlement européen et le Conseil à adopter le cadre avant la fin de l’année.

Sundar et moi avons convenu que nous ne pouvions pas nous permettre d’attendre que la réglementation sur l’IA devienne effectivement applicable et de travailler avec tous les développeurs d’IA pour déjà développer un pacte sur l’IA sur une base volontaire avant la date limite légale.

Je salue également l’engagement de Sundar à intensifier la lutte contre la désinformation avant les élections en Europe.

Bien qu’il n’y ait aucun détail sur ce qui pourrait être contenu dans le “pacte d’IA”, comme pour tout accord d’autorégulation, il manquerait de mordant juridique, il n’y aurait donc aucun moyen de forcer les développeurs à s’inscrire – ni de conséquences en cas de non-respect du engagements (volontaires).

Pourtant, c’est peut-être un pas vers le type de coopération internationale sur l’élaboration de règles qui a été réclamée ces dernières semaines et ces derniers mois par un certain nombre de technologues.

L’UE a un précédent lorsqu’il s’agit d’amener les géants de la technologie à inscrire leur nom sur un peu d’autorégulation : après avoir établi, sur plusieurs années, quelques accords volontaires (alias codes) auxquels un certain nombre de géants de la technologie ont adhéré (y compris Google), s’engageant à améliorer leurs réponses aux signalements de discours de haine en ligne et à la diffusion de désinformation préjudiciable. Et bien que les deux codes susmentionnés n’aient pas résolu ce qui reste des problèmes complexes de modération de la parole en ligne, ils ont fourni un bâton à l’UE pour mesurer si les plateformes respectent ou non leurs propres revendications – et, parfois, l’utilisent pour distribuer un légers passages à tabac en public quand ils ne le sont pas.

Plus généralement, l’UE reste en tête du peloton mondial en matière d’élaboration de règles numériques et a déjà rédigé des réglementations pour l’intelligence artificielle – a proposé un cadre basé sur les risques pour les applications d’IA il y a deux ans. Cependant, même les meilleurs efforts du bloc sont toujours à la traîne des développements dans le domaine qui se sont particulièrement ressentis cette année, après que le chatbot IA génératif d’OpenAI, ChatGPT, ait été largement mis à la disposition des internautes et ait attiré l’attention virale.

Actuellement, le projet de loi sur l’IA de l’UE, proposé en avril 2021, reste un élément législatif en direct entre le Parlement européen et le Conseil – le premier ayant récemment convenu d’une série d’amendements qu’il souhaite inclure, dont plusieurs ciblant l’IA générative.

Un compromis sur un texte final devra être trouvé entre les co-législateurs de l’UE, il reste donc à voir à quoi ressemblera la forme finale du règlement sur l’IA du bloc.

De plus, même si la loi est adoptée avant la fin de l’année, qui est le calendrier le plus optimiste, elle s’accompagnera certainement d’une période de mise en œuvre – probablement d’au moins un an avant qu’elle ne s’applique aux développeurs d’IA. D’où la raison pour laquelle les commissaires européens font pression avec insistance pour des mesures palliatives.

Plus tôt cette semaine, la vice-présidente exécutive Margrethe Vestager, qui dirige la stratégie numérique du bloc, a suggéré que l’UE et les États-Unis étaient sur le point de coopérer pour établir des normes minimales avant l’entrée en vigueur de la législation (via Reuters).

Dans d’autres remarques aujourd’hui, à la suite de la rencontre avec Google, elle a tweeté : « Nous avons besoin de la loi sur l’IA dès que possible, mais la technologie de l’IA évolue à une vitesse extrême. Nous avons donc besoin d’un accord volontaire sur des règles universelles pour l’IA maintenant.

Élaborant sur le commentaire de Vestager, un porte-parole de la Commission a déclaré : « Lors de la réunion ministérielle numérique du G7 à Takasaki, au Japon, les 29 et 30 avril, le vice-président exécutif Vestager a proposé des garde-fous convenus au niveau international sur l’IA que les entreprises peuvent respecter volontairement jusqu’à ce que la loi sur l’IA soit en vigueur dans l’UE. Cette proposition a été reprise par les dirigeants du G7, qui ont convenu samedi dernier dans leur communiqué de lancer le “Hiroshima AI Process”, dans le but de concevoir de tels garde-fous, en particulier pour l’IA générative.

Malgré ces expressions soudaines de hâte de haut niveau, il convient de noter que le règlement de protection des données existant dans l’UE, le GDPR, peut s’appliquer – et a déjà été appliqué à certaines applications d’IA, notamment ChatGPT, Replika et Clearview AI pour n’en nommer que trois. Par exemple, une intervention réglementaire sur ChatGPT en Italie à la fin du briefing de mars a conduit à une suspension de service qui a été suivie par OpenAI produisant de nouvelles divulgations et contrôles pour les utilisateurs dans le but de se conformer aux règles de confidentialité.

Ajoutez à cela, comme le note Breton, les DSA et DMA entrants pourraient créer d’autres exigences strictes que les fabricants d’applications d’IA devront respecter, selon la nature de leur service, dans les mois et les années à venir, à mesure que ces règles commenceront à s’appliquer sur le numérique. les services, les plateformes et les géants de la technologie qui façonnent le plus le marché (dans le cas de la DMA).

Néanmoins, l’UE reste convaincue de la nécessité de règles spécifiques fondées sur les risques pour l’IA. Et, semble-t-il, souhaite doubler l'”effet Bruxelles” prévu que sa législation numérique peut attirer en annonçant maintenant un pacte provisoire sur l’IA.

Au cours des dernières semaines et des derniers mois, les législateurs américains ont également porté leur attention sur la question difficile de la meilleure façon de réglementer l’IA – avec un comité du Sénat qui a récemment tenu une audition au cours de laquelle ils ont entendu le témoignage du PDG d’OpenAI, Sam Altman, lui demandant son avis sur comment réglementer la technologie.

Google espère peut-être jouer l’autre camp en se précipitant pour travailler avec l’UE sur des normes volontaires. Que la course aux armements pour la réglementation de l’IA commence !

Ce rapport a été mis à jour avec des remarques supplémentaires par Vestager


rewrite this content and keep HTML tags Sundar Pichai de Google a accepté de travailler avec les législateurs européens sur ce que l’on appelle un “pacte sur l’IA” – apparemment un ensemble provisoire de règles ou de normes volontaires tandis que des réglementations formelles pour l’application de l’IA sont toujours en cours d’élaboration. Pichai rencontrait Thierry Breton, commissaire au marché intérieur de l’Union européenne, qui a publié une déclaration après la conférence d’aujourd’hui — disant : “Il n’y a pas de temps à perdre dans la course à l’IA pour créer un environnement en ligne sûr.” Un briefing publié par son bureau après la réunion a également déclaré que l’UE souhaitait être “proactive” et travailler sur un pacte sur l’IA avant la future législation européenne qui devrait s’appliquer à l’IA. La note ajoute que le bloc veut lancer un pacte sur l’IA “impliquant tous les principaux acteurs européens et non européens de l’IA sur une base volontaire” et avant le délai légal de la loi paneuropéenne sur l’IA susmentionnée. Cependant, à l’heure actuelle, le seul nom de géant de la technologie qui a été publiquement associé à l’initiative est celui de Google. Nous avons contacté Google et la Commission européenne avec des questions sur l’initiative. Dans d’autres remarques publiques, Breton a déclaré: Nous attendons de la technologie en Europe qu’elle respecte toutes nos règles en matière de protection des données, de sécurité en ligne et d’intelligence artificielle. En Europe, ce n’est pas choisir. Je suis heureux que Sundar Pichai le reconnaisse et qu’il s’engage à respecter toutes les règles de l’UE. Le RGPD [General Data Protection Regulation] est en place. L’ASD [Digital Services Act] et DMA [Digital Markets Act] sont mis en œuvre. Les négociations sur la loi sur l’IA approchent de la phase finale et j’appelle le Parlement européen et le Conseil à adopter le cadre avant la fin de l’année. Sundar et moi avons convenu que nous ne pouvions pas nous permettre d’attendre que la réglementation sur l’IA devienne effectivement applicable et de travailler avec tous les développeurs d’IA pour déjà développer un pacte sur l’IA sur une base volontaire avant la date limite légale. Je salue également l’engagement de Sundar à intensifier la lutte contre la désinformation avant les élections en Europe. Bien qu’il n’y ait aucun détail sur ce qui pourrait être contenu dans le “pacte d’IA”, comme pour tout accord d’autorégulation, il manquerait de mordant juridique, il n’y aurait donc aucun moyen de forcer les développeurs à s’inscrire – ni de conséquences en cas de non-respect du engagements (volontaires). Pourtant, c’est peut-être un pas vers le type de coopération internationale sur l’élaboration de règles qui a été réclamée ces dernières semaines et ces derniers mois par un certain nombre de technologues. L’UE a un précédent lorsqu’il s’agit d’amener les géants de la technologie à inscrire leur nom sur un peu d’autorégulation : après avoir établi, sur plusieurs années, quelques accords volontaires (alias codes) auxquels un certain nombre de géants de la technologie ont adhéré (y compris Google), s’engageant à améliorer leurs réponses aux signalements de discours de haine en ligne et à la diffusion de désinformation préjudiciable. Et bien que les deux codes susmentionnés n’aient pas résolu ce qui reste des problèmes complexes de modération de la parole en ligne, ils ont fourni un bâton à l’UE pour mesurer si les plateformes respectent ou non leurs propres revendications – et, parfois, l’utilisent pour distribuer un légers passages à tabac en public quand ils ne le sont pas. Plus généralement, l’UE reste en tête du peloton mondial en matière d’élaboration de règles numériques et a déjà rédigé des réglementations pour l’intelligence artificielle – a proposé un cadre basé sur les risques pour les applications d’IA il y a deux ans. Cependant, même les meilleurs efforts du bloc sont toujours à la traîne des développements dans le domaine qui se sont particulièrement ressentis cette année, après que le chatbot IA génératif d’OpenAI, ChatGPT, ait été largement mis à la disposition des internautes et ait attiré l’attention virale. Actuellement, le projet de loi sur l’IA de l’UE, proposé en avril 2021, reste un élément législatif en direct entre le Parlement européen et le Conseil – le premier ayant récemment convenu d’une série d’amendements qu’il souhaite inclure, dont plusieurs ciblant l’IA générative. Un compromis sur un texte final devra être trouvé entre les co-législateurs de l’UE, il reste donc à voir à quoi ressemblera la forme finale du règlement sur l’IA du bloc. De plus, même si la loi est adoptée avant la fin de l’année, qui est le calendrier le plus optimiste, elle s’accompagnera certainement d’une période de mise en œuvre – probablement d’au moins un an avant qu’elle ne s’applique aux développeurs d’IA. D’où la raison pour laquelle les commissaires européens font pression avec insistance pour des mesures palliatives. Plus tôt cette semaine, la vice-présidente exécutive Margrethe Vestager, qui dirige la stratégie numérique du bloc, a suggéré que l’UE et les États-Unis étaient sur le point de coopérer pour établir des normes minimales avant l’entrée en vigueur de la législation (via Reuters). Dans d’autres remarques aujourd’hui, à la suite de la rencontre avec Google, elle a tweeté : « Nous avons besoin de la loi sur l’IA dès que possible, mais la technologie de l’IA évolue à une vitesse extrême. Nous avons donc besoin d’un accord volontaire sur des règles universelles pour l’IA maintenant. Bonne rencontre W. @sundarpichai. Nous avons besoin du #AIAct dès que possible. Mais la technologie de l’IA évolue à une vitesse extrême. Nous avons donc besoin d’un accord volontaire sur des règles universelles pour #IA maintenant. Déjà discuté à #G7 numérique à Takakasi. Nous ferons le suivi dans le #TTC la semaine prochaine. Pas de temps a perdre – Margrethe Vestager (@vestager) 24 mai 2023 Élaborant sur le commentaire de Vestager, un porte-parole de la Commission a déclaré : « Lors de la réunion ministérielle numérique du G7 à Takasaki, au Japon, les 29 et 30 avril, le vice-président exécutif Vestager a proposé des garde-fous convenus au niveau international sur l’IA que les entreprises peuvent respecter volontairement jusqu’à ce que la loi sur l’IA soit en vigueur dans l’UE. Cette proposition a été reprise par les dirigeants du G7, qui ont convenu samedi dernier dans leur communiqué de lancer le “Hiroshima AI Process”, dans le but de concevoir de tels garde-fous, en particulier pour l’IA générative. Malgré ces expressions soudaines de hâte de haut niveau, il convient de noter que le règlement de protection des données existant dans l’UE, le GDPR, peut s’appliquer – et a déjà été appliqué à certaines applications d’IA, notamment ChatGPT, Replika et Clearview AI pour n’en nommer que trois. Par exemple, une intervention réglementaire sur ChatGPT en Italie à la fin du briefing de mars a conduit à une suspension de service qui a été suivie par OpenAI produisant de nouvelles divulgations et contrôles pour les utilisateurs dans le but de se conformer aux règles de confidentialité. Ajoutez à cela, comme le note Breton, les DSA et DMA entrants pourraient créer d’autres exigences strictes que les fabricants d’applications d’IA devront respecter, selon la nature de leur service, dans les mois et les années à venir, à mesure que ces règles commenceront à s’appliquer sur le numérique. les services, les plateformes et les géants de la technologie qui façonnent le plus le marché (dans le cas de la DMA). Néanmoins, l’UE reste convaincue de la nécessité de règles spécifiques fondées sur les risques pour l’IA. Et, semble-t-il, souhaite doubler l'”effet Bruxelles” prévu que sa législation numérique peut attirer en annonçant maintenant un pacte provisoire sur l’IA. Au cours des dernières semaines et des derniers mois, les législateurs américains ont également porté leur attention sur la question difficile de la meilleure façon de réglementer l’IA – avec un comité du Sénat qui a récemment tenu une audition au cours de laquelle ils ont entendu le témoignage du PDG d’OpenAI, Sam Altman, lui demandant son avis sur comment réglementer la technologie. Google espère peut-être jouer l’autre camp en se précipitant pour travailler avec l’UE sur des normes volontaires. Que la course aux armements pour la réglementation de l’IA commence ! Ce rapport a été mis à jour avec des remarques supplémentaires par Vestager

Laisser un commentaire