Mercredi, l'Union européenne a demandé plus d'informations à Snapchat, TikTok et YouTube sur leurs algorithmes respectifs de recommandation de contenu dans le cadre du règlement de gouvernance en ligne du bloc, le Digital Services Act (DSA).
Dans un communiqué de presse, la Commission a déclaré avoir envoyé des demandes d'informations (RFI) aux trois plateformes de médias sociaux pour leur demander plus de détails sur la conception et le fonctionnement de leurs algorithmes. Le trio a jusqu'au 15 novembre pour fournir les données recherchées.
L’UE a déclaré que ses réponses éclaireraient les prochaines étapes – comme, potentiellement, l’ouverture d’enquêtes formelles.
Le cadre de gouvernance en ligne du bloc, qui prévoit des sanctions sévères en cas de violation (jusqu'à 6 % du chiffre d'affaires annuel mondial), applique une couche supplémentaire de règles d'atténuation des risques systémiques aux trois plateformes – en raison de leur désignation de VLOP (c'est-à-dire de très grandes plateformes en ligne). ).
Ces règles exigent que les plateformes plus grandes identifient et atténuent les risques qui pourraient résulter de leur utilisation de l'IA comme outil de recommandation de contenu, la loi stipulant qu'elles doivent prendre des mesures pour prévenir les impacts négatifs dans une série de domaines, notamment la santé mentale et le discours civique des utilisateurs. L’UE a également spécifiquement averti que la diffusion de contenus préjudiciables pourrait résulter de l’utilisation d’algorithmes basés sur l’engagement – ce qui semble être le point sur lequel se concentrent ses dernières RFI.
La Commission a déclaré qu'elle demandait à Snapchat et YouTube de fournir des « informations détaillées » sur les paramètres algorithmiques qu'ils utilisent pour recommander du contenu à leurs utilisateurs. Il souhaite également plus de données sur le rôle de ces IA dans « l’amplification de certains risques systémiques » – notamment les risques liés au processus électoral et au discours civique ; le bien-être mental des utilisateurs (par exemple, comportements addictifs et contenus « trous à lapins ») ; et la protection des mineurs.
“Les questions concernent également les mesures prises par les plateformes pour atténuer l'influence potentielle de leurs systèmes de recommandation sur la diffusion de contenus illégaux, tels que la promotion de drogues illégales et les discours de haine”, a ajouté l'UE.
Pour TikTok, la Commission recherche plus de détails sur les mesures anti-manipulation déployées pour tenter d’empêcher les acteurs malveillants de profiter de la plateforme pour diffuser des contenus préjudiciables. L’UE demande également à TikTok davantage sur la manière dont elle atténue les risques liés aux élections, au pluralisme des médias et au discours civique – des risques systémiques qui, selon elle, peuvent être amplifiés par les systèmes de recommandation.
Ces dernières RFI ne sont pas les premières que la Commission envoie aux trois plateformes. Les précédentes demandes de DSA comprenaient des questions adressées au trio (et à plusieurs autres VLOP) sur les risques électoraux à l’approche des élections européennes du début de cette année. Il a également déjà interrogé les trois sur les questions de protection de l'enfance. De plus, la Commission a envoyé une demande d'informations à TikTok l'année dernière pour lui demander comment elle répondait aux risques liés au contenu liés à la guerre entre Israël et le Hamas.
Cependant, la plateforme de ByteDance est jusqu'à présent le seul des trois produits de médias sociaux à faire l'objet d'une enquête formelle de la DSA. En février, le bloc a ouvert une enquête sur la conformité DSA de TikTok, se disant préoccupé par une série de problèmes, notamment l'approche de la plateforme en matière de protection des mineurs et la gestion des risques liés à la conception addictive et aux contenus préjudiciables. Cette enquête est en cours.
Le porte-parole de TikTok, Paolo Ganino, a envoyé par courrier électronique une déclaration dans laquelle la société écrivait : « Ce matin, nous avons reçu une demande d'informations de la Commission européenne, que nous allons maintenant examiner. Nous coopérerons avec la Commission tout au long du processus de demande d’information.
Nous avons également contacté Snap et TikTok pour obtenir des réponses aux dernières demandes d'informations de la Commission.
Bien que les règles du DSA pour les VLOP soient en vigueur depuis la fin de l'été dernier, le bloc n'a encore conclu aucune des nombreuses enquêtes qu'il a ouvertes sur les grandes plates-formes. Bien qu'en juillet, la Commission ait publié des conclusions préliminaires liées aux enquêtes sur X – affirmant qu'elle soupçonnait le réseau social d'enfreindre les règles de la DSA sur la conception de modèles sombres ; fournir un accès aux données aux chercheurs ; et la transparence des publicités.
rewrite this content and keep HTML tags
Mercredi, l'Union européenne a demandé plus d'informations à Snapchat, TikTok et YouTube sur leurs algorithmes respectifs de recommandation de contenu dans le cadre du règlement de gouvernance en ligne du bloc, le Digital Services Act (DSA).
Dans un communiqué de presse, la Commission a déclaré avoir envoyé des demandes d'informations (RFI) aux trois plateformes de médias sociaux pour leur demander plus de détails sur la conception et le fonctionnement de leurs algorithmes. Le trio a jusqu'au 15 novembre pour fournir les données recherchées.
L’UE a déclaré que ses réponses éclaireraient les prochaines étapes – comme, potentiellement, l’ouverture d’enquêtes formelles.
Le cadre de gouvernance en ligne du bloc, qui prévoit des sanctions sévères en cas de violation (jusqu'à 6 % du chiffre d'affaires annuel mondial), applique une couche supplémentaire de règles d'atténuation des risques systémiques aux trois plateformes – en raison de leur désignation de VLOP (c'est-à-dire de très grandes plateformes en ligne). ).
Ces règles exigent que les plateformes plus grandes identifient et atténuent les risques qui pourraient résulter de leur utilisation de l'IA comme outil de recommandation de contenu, la loi stipulant qu'elles doivent prendre des mesures pour prévenir les impacts négatifs dans une série de domaines, notamment la santé mentale et le discours civique des utilisateurs. L’UE a également spécifiquement averti que la diffusion de contenus préjudiciables pourrait résulter de l’utilisation d’algorithmes basés sur l’engagement – ce qui semble être le point sur lequel se concentrent ses dernières RFI.
La Commission a déclaré qu'elle demandait à Snapchat et YouTube de fournir des « informations détaillées » sur les paramètres algorithmiques qu'ils utilisent pour recommander du contenu à leurs utilisateurs. Il souhaite également plus de données sur le rôle de ces IA dans « l’amplification de certains risques systémiques » – notamment les risques liés au processus électoral et au discours civique ; le bien-être mental des utilisateurs (par exemple, comportements addictifs et contenus « trous à lapins ») ; et la protection des mineurs.
“Les questions concernent également les mesures prises par les plateformes pour atténuer l'influence potentielle de leurs systèmes de recommandation sur la diffusion de contenus illégaux, tels que la promotion de drogues illégales et les discours de haine”, a ajouté l'UE.
Pour TikTok, la Commission recherche plus de détails sur les mesures anti-manipulation déployées pour tenter d’empêcher les acteurs malveillants de profiter de la plateforme pour diffuser des contenus préjudiciables. L’UE demande également à TikTok davantage sur la manière dont elle atténue les risques liés aux élections, au pluralisme des médias et au discours civique – des risques systémiques qui, selon elle, peuvent être amplifiés par les systèmes de recommandation.
Ces dernières RFI ne sont pas les premières que la Commission envoie aux trois plateformes. Les précédentes demandes de DSA comprenaient des questions adressées au trio (et à plusieurs autres VLOP) sur les risques électoraux à l’approche des élections européennes du début de cette année. Il a également déjà interrogé les trois sur les questions de protection de l'enfance. De plus, la Commission a envoyé une demande d'informations à TikTok l'année dernière pour lui demander comment elle répondait aux risques liés au contenu liés à la guerre entre Israël et le Hamas.
Cependant, la plateforme de ByteDance est jusqu'à présent le seul des trois produits de médias sociaux à faire l'objet d'une enquête formelle de la DSA. En février, le bloc a ouvert une enquête sur la conformité DSA de TikTok, se disant préoccupé par une série de problèmes, notamment l'approche de la plateforme en matière de protection des mineurs et la gestion des risques liés à la conception addictive et aux contenus préjudiciables. Cette enquête est en cours.
Le porte-parole de TikTok, Paolo Ganino, a envoyé par courrier électronique une déclaration dans laquelle la société écrivait : « Ce matin, nous avons reçu une demande d'informations de la Commission européenne, que nous allons maintenant examiner. Nous coopérerons avec la Commission tout au long du processus de demande d’information.
Nous avons également contacté Snap et TikTok pour obtenir des réponses aux dernières demandes d'informations de la Commission.
Bien que les règles du DSA pour les VLOP soient en vigueur depuis la fin de l'été dernier, le bloc n'a encore conclu aucune des nombreuses enquêtes qu'il a ouvertes sur les grandes plates-formes. Bien qu'en juillet, la Commission ait publié des conclusions préliminaires liées aux enquêtes sur X – affirmant qu'elle soupçonnait le réseau social d'enfreindre les règles de la DSA sur la conception de modèles sombres ; fournir un accès aux données aux chercheurs ; et la transparence des publicités.