Les commissions des libertés civiles (LIBE) et du marché intérieur (IMCO) du Parlement européen ont massivement approuvé un projet de loi établissant un cadre fondé sur les risques pour réglementer les applications de l'intelligence artificielle. Lors d'un vote ce matin, les commissions ont voté par 71 voix contre 8 (avec 7 abstentions) en faveur du compromis négocié avec les États membres de l'UE à la fin de l'année dernière au cours de longues négociations trilogues.
La loi européenne sur l’IA, initialement proposée par la Commission en avril 2021, fixe des règles pour les développeurs d’IA en fonction de la puissance de leurs modèles et/ou de l’objectif pour lequel ils ont l’intention d’appliquer l’IA. Il comprend une liste d'utilisations interdites de l'IA (telles que le score social), ainsi que des règles pour un ensemble défini d'utilisations à haut risque (par exemple, l'éducation, la santé ou l'emploi), telles que des obligations dans des domaines tels que la qualité des données, les tests et l'évaluation des risques. De plus, il applique certaines exigences de transparence aux IA à usage général et aux outils tels que les deepfakes et les chatbots IA.
Au-delà de cela, la plupart des applications d’IA seront considérées comme « à faible risque », ce qui signifie qu’elles ne relèvent pas du champ d’application de la loi. Le plan prévoit également la mise en place de bacs à sable réglementaires au niveau national pour permettre aux développeurs de développer, former et tester des applications à risque dans un environnement « réel » supervisé.
La proposition de la Commission relative à un règlement sur l'IA n'a pas fait beaucoup de bruit lorsque l'UE l'a présentée il y a trois ans. Mais avec l’essor de l’IA générative au cours de l’année écoulée, le plan a attiré l’attention du monde entier – et a creusé de grandes divisions entre les législateurs du bloc. Les députés ont proposé d'amender la proposition afin de garantir qu'elle s'applique aux puissantes IA à usage général, tandis qu'une poignée d'États membres, menés par la France, ont poussé dans la direction de l'opposition – cherchant une exclusion réglementaire pour les IA avancées dans l'espoir de favoriser des champions nationaux. .
Les négociations du trilogue Marathon en décembre ont abouti à un texte de compromis qui incluait encore certaines dispositions concernant les IA à usage général, ce qui a conduit à une opposition persistante de la part de certains gouvernements. Et pas plus tard que le mois dernier, ces divisions semblaient susceptibles de faire dérailler l'adoption du projet de loi. Mais avec un vote critique des États membres sur le texte de compromis adopté au début du mois, le bloc semble presque certain d'adopter son règlement phare sur l'IA dans quelques mois.
Cela dit, le projet de loi a encore quelques obstacles à franchir avant son adoption : il y aura un vote en plénière au Parlement dans les semaines à venir, au cours duquel les députés seront invités à l'adopter formellement. Ensuite, il y aura une approbation finale du Conseil.
Toutefois, ces dernières étapes semblent moins susceptibles d’entraîner des désaccords entre les colégislateurs européens. Une telle décision serait un boulet de démolition pour le projet de loi dans le cycle actuel, avec les élections législatives imminentes et la fin du mandat du collège actuel – ce qui signifie que le temps législatif et la marge de manœuvre en matière de réputation sont serrés.
Le soutien total apporté aujourd'hui par les deux commissions parlementaires, qui ont participé à l'examen détaillé de la proposition législative au fil des années, donne également un signal fort que les députés donneront suite au soutien de la majorité absolue requis, ce qui ouvrirait la voie à l'adoption de la loi. et entrera en vigueur plus tard cette année. Les premières dispositions (interdictions de pratiques interdites) s’appliqueraient ensuite six mois plus tard (donc probablement au second semestre de cette année).
L'UE a opté pour un déploiement progressif de la loi, ce qui entraînera probablement une augmentation des exigences juridiques pour les développeurs concernés entre 2024 et 2027. (L’UE accorde également neuf mois après l’entrée en vigueur d’un code de bonnes pratiques pour qu’il s’applique ; 12 mois après l’entrée en vigueur pour que les règles sur l’IA à usage général, y compris la gouvernance, s’appliquent. Il indique également que la loi sera pleinement applicable 24 mois après son entrée en vigueur – bien que les obligations pour les systèmes à haut risque aient encore un délai d'application plus long (de 36 mois).)
Même si le vote en séance plénière du Parlement semble avoir des chances d'être adopté, une certaine opposition persiste. Le Parti Pirate, par exemple, refuse de soutenir ce que font ses députés européens, qui représentent aujourd'hui quelques votes en commission. contre la loi – qualifient une loi de « défectueuse ». Dans un communiqué, l'eurodéputé du Parti Pirate Marcel Kolaja, également membre de la commission IMCO, a déclaré : « Malheureusement, malgré la bonne position du Parlement européen, les gouvernements nationaux ont réussi à paralyser la loi sur l'IA. Par conséquent, les Pirates ne peuvent pas le soutenir.
Dans une autre déclaration, Patrick Breyer, député européen du Parti Pirate et membre de la commission LIBE, a également mis en garde : “La loi européenne sur l'IA ouvre la porte à une surveillance faciale permanente en temps réel : plus de 6 000 personnes sont recherchées par un mandat d'arrêt européen pour les infractions énumérées dans la loi sur l'IA. Tout espace public en Europe peut être placé sous surveillance biométrique de masse permanente sur ces bases. Cette loi légitime et normalise une culture de méfiance. Cela conduit l’Europe vers un avenir dystopique d’un État de surveillance méfiant et de haute technologie.
rewrite this content and keep HTML tags
Les commissions des libertés civiles (LIBE) et du marché intérieur (IMCO) du Parlement européen ont massivement approuvé un projet de loi établissant un cadre fondé sur les risques pour réglementer les applications de l'intelligence artificielle. Lors d'un vote ce matin, les commissions ont voté par 71 voix contre 8 (avec 7 abstentions) en faveur du compromis négocié avec les États membres de l'UE à la fin de l'année dernière au cours de longues négociations trilogues.
La loi européenne sur l’IA, initialement proposée par la Commission en avril 2021, fixe des règles pour les développeurs d’IA en fonction de la puissance de leurs modèles et/ou de l’objectif pour lequel ils ont l’intention d’appliquer l’IA. Il comprend une liste d'utilisations interdites de l'IA (telles que le score social), ainsi que des règles pour un ensemble défini d'utilisations à haut risque (par exemple, l'éducation, la santé ou l'emploi), telles que des obligations dans des domaines tels que la qualité des données, les tests et l'évaluation des risques. De plus, il applique certaines exigences de transparence aux IA à usage général et aux outils tels que les deepfakes et les chatbots IA.
Au-delà de cela, la plupart des applications d’IA seront considérées comme « à faible risque », ce qui signifie qu’elles ne relèvent pas du champ d’application de la loi. Le plan prévoit également la mise en place de bacs à sable réglementaires au niveau national pour permettre aux développeurs de développer, former et tester des applications à risque dans un environnement « réel » supervisé.
La proposition de la Commission relative à un règlement sur l'IA n'a pas fait beaucoup de bruit lorsque l'UE l'a présentée il y a trois ans. Mais avec l’essor de l’IA générative au cours de l’année écoulée, le plan a attiré l’attention du monde entier – et a creusé de grandes divisions entre les législateurs du bloc. Les députés ont proposé d'amender la proposition afin de garantir qu'elle s'applique aux puissantes IA à usage général, tandis qu'une poignée d'États membres, menés par la France, ont poussé dans la direction de l'opposition – cherchant une exclusion réglementaire pour les IA avancées dans l'espoir de favoriser des champions nationaux. .
Les négociations du trilogue Marathon en décembre ont abouti à un texte de compromis qui incluait encore certaines dispositions concernant les IA à usage général, ce qui a conduit à une opposition persistante de la part de certains gouvernements. Et pas plus tard que le mois dernier, ces divisions semblaient susceptibles de faire dérailler l'adoption du projet de loi. Mais avec un vote critique des États membres sur le texte de compromis adopté au début du mois, le bloc semble presque certain d'adopter son règlement phare sur l'IA dans quelques mois.
Cela dit, le projet de loi a encore quelques obstacles à franchir avant son adoption : il y aura un vote en plénière au Parlement dans les semaines à venir, au cours duquel les députés seront invités à l'adopter formellement. Ensuite, il y aura une approbation finale du Conseil.
Toutefois, ces dernières étapes semblent moins susceptibles d’entraîner des désaccords entre les colégislateurs européens. Une telle décision serait un boulet de démolition pour le projet de loi dans le cycle actuel, avec les élections législatives imminentes et la fin du mandat du collège actuel – ce qui signifie que le temps législatif et la marge de manœuvre en matière de réputation sont serrés.
Le soutien total apporté aujourd'hui par les deux commissions parlementaires, qui ont participé à l'examen détaillé de la proposition législative au fil des années, donne également un signal fort que les députés donneront suite au soutien de la majorité absolue requis, ce qui ouvrirait la voie à l'adoption de la loi. et entrera en vigueur plus tard cette année. Les premières dispositions (interdictions de pratiques interdites) s’appliqueraient ensuite six mois plus tard (donc probablement au second semestre de cette année).
L'UE a opté pour un déploiement progressif de la loi, ce qui entraînera probablement une augmentation des exigences juridiques pour les développeurs concernés entre 2024 et 2027. (L’UE accorde également neuf mois après l’entrée en vigueur d’un code de bonnes pratiques pour qu’il s’applique ; 12 mois après l’entrée en vigueur pour que les règles sur l’IA à usage général, y compris la gouvernance, s’appliquent. Il indique également que la loi sera pleinement applicable 24 mois après son entrée en vigueur – bien que les obligations pour les systèmes à haut risque aient encore un délai d'application plus long (de 36 mois).)
Même si le vote en séance plénière du Parlement semble avoir des chances d'être adopté, une certaine opposition persiste. Le Parti Pirate, par exemple, refuse de soutenir ce que font ses députés européens, qui représentent aujourd'hui quelques votes en commission. contre la loi – qualifient une loi de « défectueuse ». Dans un communiqué, l'eurodéputé du Parti Pirate Marcel Kolaja, également membre de la commission IMCO, a déclaré : « Malheureusement, malgré la bonne position du Parlement européen, les gouvernements nationaux ont réussi à paralyser la loi sur l'IA. Par conséquent, les Pirates ne peuvent pas le soutenir.
Dans une autre déclaration, Patrick Breyer, député européen du Parti Pirate et membre de la commission LIBE, a également mis en garde : “La loi européenne sur l'IA ouvre la porte à une surveillance faciale permanente en temps réel : plus de 6 000 personnes sont recherchées par un mandat d'arrêt européen pour les infractions énumérées dans la loi sur l'IA. Tout espace public en Europe peut être placé sous surveillance biométrique de masse permanente sur ces bases. Cette loi légitime et normalise une culture de méfiance. Cela conduit l’Europe vers un avenir dystopique d’un État de surveillance méfiant et de haute technologie.