Meta a averti qu’il risquait de “lourdes sanctions” dans l’UE s’il ne résolvait pas les problèmes de protection de l’enfance sur Instagram

L’Union européenne a lancé un avertissement brutal à Meta, affirmant qu’elle devait rapidement nettoyer sa loi sur la protection de l’enfance ou faire face au risque de « lourdes sanctions ».

L’avertissement fait suite à un rapport publié hier par le Wall Street Journal. Le WSJ a travaillé avec des chercheurs de l’Université de Stanford et de l’Université du Massachusetts à Amherst pour dissimuler et exposer un réseau de comptes Instagram mis en place pour connecter les pédophiles aux vendeurs de matériel d’abus sexuel d’enfants (CSAM) sur la plate-forme de réseautage social grand public.

Les recherches de Stanford ont également révélé que le site de partage de photos appartenant à Meta était la plate-forme la plus importante pour les vendeurs de CSAM auto-générés (SG-CSAM), considérant les algorithmes de recommandation d’Instagram comme “une raison clé de l’efficacité de la plate-forme dans la publicité SG-CSAM”. ”.

Dans un tweeter licencié ce matin contre le géant de l’adtech, le commissaire européen au marché intérieur, Thierry Breton, a déclaré que “le code volontaire sur la protection de l’enfance ne semble pas fonctionner”, ajoutant : “Mark Zuckerberg doit maintenant s’expliquer et prendre des mesures immédiates”.

Breton a déclaré qu’il soulèverait la sécurité des enfants lors d’une réunion avec Zuckerberg au siège de Meta aux États-Unis plus tard ce mois-ci – et a confirmé que l’UE appliquera un délai strict sur la question en disant qu’elle s’attend à ce que Meta démontre que des mesures efficaces sont en place après Le 25 août, date à laquelle l’entreprise est légalement tenue de se conformer à la loi sur les services numériques (DSA) de l’UE.

Les amendes pour non-respect de la DSA, qui énonce les règles sur la manière dont les plateformes doivent lutter contre les contenus illégaux comme le CSAM, peuvent atteindre 6 % du chiffre d’affaires annuel mondial.

Instagram et Facebook ont ​​tous deux été désignés de très grandes plateformes en ligne (alias VLOP) dans le cadre de la DSA, ce qui leur impose des obligations supplémentaires d’évaluer et d’atténuer les risques systémiques liés à leurs plateformes, y compris ceux découlant spécifiquement des systèmes de recommandation et des algorithmes. Le niveau de risque auquel Meta est confronté ici semble donc substantiel.

“Après le 25 août, sous #DSA, Meta doit nous montrer des mesures ou faire face à de lourdes sanctions”, a averti Breton dans le tweet, qui signale à la fois le rapport du WSJ et le document de recherche de Stanford examinant l’activité CSAM sur un certain nombre de plateformes sociales majeures qui conclut que “Instagram est actuellement la plate-forme la plus importante pour ces réseaux, avec des fonctionnalités qui aident à connecter les acheteurs et les vendeurs”.

La menace de Breton de « lourdes sanctions » s’il n’agit pas pourrait se traduire par des milliards (au pluriel) d’amendes pour Meta dans l’UE.

Nous avons contacté Meta pour obtenir une réponse à l’avertissement de Breton sur la protection de l’enfance, mais au moment de la rédaction, il n’avait pas répondu.

Instagram trouvé recommandant des vendeurs CSAM

L’enquête du Journal a mis en évidence le rôle joué par les algorithmes de recommandation d’Instagram pour relier les pédophiles aux vendeurs de CSAM.

“Instagram connecte les pédophiles et les guide vers les vendeurs de contenu via des systèmes de recommandation qui excellent à relier ceux qui partagent des intérêts de niche, le Journal et les chercheurs universitaires trouvés”, écrit-il.

« Bien que hors de vue pour la plupart sur la plateforme, les comptes sexualisés sur Instagram sont effrontés quant à leur intérêt. Les chercheurs ont découvert qu’Instagram permettait aux gens de rechercher des hashtags explicites tels que #pedowhore et #preteensex et les connectait à des comptes qui utilisaient les termes pour annoncer la vente de matériel sexuel impliquant des enfants. Ces comptes prétendent souvent être gérés par les enfants eux-mêmes et utilisent des pseudonymes ouvertement sexuels incorporant des mots tels que “petite salope pour toi”.

Meta a répondu aux questions posées par le WSJ avant la publication en disant qu’il avait bloqué des milliers de hashtags qui sexualisent les enfants, dont certains, selon le rapport du Journal, avaient des millions de publications.

Le géant de la technologie a également déclaré qu’il avait interdit à ses systèmes de recommander des termes de recherche aux utilisateurs connus pour être associés à des abus sexuels sur des enfants.

Le rapport du WSJ comprend une capture d’écran d’une fenêtre contextuelle servie par Instagram aux chercheurs impliqués dans l’enquête lorsqu’ils ont recherché un hashtag lié à la pédophilie – qui avertissait que “ces résultats peuvent contenir des images d’abus sexuels sur des enfants”. Le texte de la notification décrivait également les risques juridiques liés à la visualisation de CSAM, les dommages causés par les abus sexuels aux enfants et suggérait des ressources pour “obtenir une aide confidentielle” ou signaler un contenu “inapproprié”, avant de proposer deux options à l’utilisateur : “Obtenir des ressources”. ou “Voir les résultats quand même” – suggérant que la plate-forme était au courant des problèmes de CSAM associés aux hashtags mais n’avait pas réussi à supprimer le contenu ou même à empêcher les utilisateurs d’y accéder.

Selon le WSJ, Meta n’a supprimé l’option permettant aux utilisateurs de voir le CSAM présumé qu’après avoir posé des questions à ce sujet et son rapport indique que la société a refusé d’expliquer pourquoi elle avait proposé une telle option en premier lieu.

Le rôle actif du moteur de recommandation d’Instagram dans la promotion essentiellement des comptes de vendeurs CSAM semble tout aussi troublant, étant donné que la plate-forme s’est avérée capable d’identifier les CSAM présumés – soulevant des questions sur les raisons pour lesquelles Meta n’a pas tiré parti de la surveillance comportementale qu’il déploie sur les utilisateurs pour stimuler l’engagement (et augmenter ses revenus publicitaires) en faisant correspondre les comptes au contenu en fonction de la détection d’activités similaires sur la plate-forme afin de cartographier le réseau pédophile et de le fermer.

À ce sujet, Meta a déclaré au WSJ qu’il s’efforçait d’empêcher ses systèmes de recommander aux adultes potentiellement pédophiles de se connecter les uns aux autres ou d’interagir avec le contenu des autres.

Les rapports du Journal relatent également des cas où les algorithmes d’Instagram ont suggéré automatiquement des termes de recherche supplémentaires pour contourner un blocage que la plate-forme a appliqué sur les liens vers un service de transfert de fichiers crypté connu pour transmettre du contenu pédophile.

Le rapport du WSJ détaille également comment l’affichage d’un seul compte de vendeur mineur sur Instagram a conduit la plate-forme à recommander aux utilisateurs de consulter de nouveaux comptes de vente CSAM.

“Après le balayage initial des comptes de la société portés à son attention par Stanford et le Journal, UMass’s [Brian Levine, director of the Rescue Lab] vérifié sur certains des comptes de vendeurs mineurs restants sur Instagram. Comme auparavant, la visualisation d’un seul d’entre eux a conduit Instagram à en recommander de nouveaux. Les suggestions d’Instagram aidaient à reconstruire le réseau que le propre personnel de sécurité de la plate-forme était en train d’essayer de démanteler », a-t-il ajouté.


rewrite this content and keep HTML tags L’Union européenne a lancé un avertissement brutal à Meta, affirmant qu’elle devait rapidement nettoyer sa loi sur la protection de l’enfance ou faire face au risque de « lourdes sanctions ». L’avertissement fait suite à un rapport publié hier par le Wall Street Journal. Le WSJ a travaillé avec des chercheurs de l’Université de Stanford et de l’Université du Massachusetts à Amherst pour dissimuler et exposer un réseau de comptes Instagram mis en place pour connecter les pédophiles aux vendeurs de matériel d’abus sexuel d’enfants (CSAM) sur la plate-forme de réseautage social grand public. Les recherches de Stanford ont également révélé que le site de partage de photos appartenant à Meta était la plate-forme la plus importante pour les vendeurs de CSAM auto-générés (SG-CSAM), considérant les algorithmes de recommandation d’Instagram comme “une raison clé de l’efficacité de la plate-forme dans la publicité SG-CSAM”. ”. Dans un tweeter licencié ce matin contre le géant de l’adtech, le commissaire européen au marché intérieur, Thierry Breton, a déclaré que “le code volontaire sur la protection de l’enfance ne semble pas fonctionner”, ajoutant : “Mark Zuckerberg doit maintenant s’expliquer et prendre des mesures immédiates”. #MétaLe code volontaire de protection de l’enfance semble ne pas fonctionner. Mark Zuckerberg doit maintenant s’expliquer et prendre des mesures immédiates. Je discuterai avec lui au QG de Meta à Menlo Park le 23 juin. Après le 25 août, sous #DSA Meta doit nous démontrer des mesures ou faire face à de lourdes sanctions. pic.twitter.com/jA25IJH8Dp —Thierry Breton (@ThierryBreton) 8 juin 2023 Breton a déclaré qu’il soulèverait la sécurité des enfants lors d’une réunion avec Zuckerberg au siège de Meta aux États-Unis plus tard ce mois-ci – et a confirmé que l’UE appliquera un délai strict sur la question en disant qu’elle s’attend à ce que Meta démontre que des mesures efficaces sont en place après Le 25 août, date à laquelle l’entreprise est légalement tenue de se conformer à la loi sur les services numériques (DSA) de l’UE. Les amendes pour non-respect de la DSA, qui énonce les règles sur la manière dont les plateformes doivent lutter contre les contenus illégaux comme le CSAM, peuvent atteindre 6 % du chiffre d’affaires annuel mondial. Instagram et Facebook ont ​​tous deux été désignés de très grandes plateformes en ligne (alias VLOP) dans le cadre de la DSA, ce qui leur impose des obligations supplémentaires d’évaluer et d’atténuer les risques systémiques liés à leurs plateformes, y compris ceux découlant spécifiquement des systèmes de recommandation et des algorithmes. Le niveau de risque auquel Meta est confronté ici semble donc substantiel. “Après le 25 août, sous #DSA, Meta doit nous montrer des mesures ou faire face à de lourdes sanctions”, a averti Breton dans le tweet, qui signale à la fois le rapport du WSJ et le document de recherche de Stanford examinant l’activité CSAM sur un certain nombre de plateformes sociales majeures qui conclut que “Instagram est actuellement la plate-forme la plus importante pour ces réseaux, avec des fonctionnalités qui aident à connecter les acheteurs et les vendeurs”. La menace de Breton de « lourdes sanctions » s’il n’agit pas pourrait se traduire par des milliards (au pluriel) d’amendes pour Meta dans l’UE. Nous avons contacté Meta pour obtenir une réponse à l’avertissement de Breton sur la protection de l’enfance, mais au moment de la rédaction, il n’avait pas répondu. Instagram trouvé recommandant des vendeurs CSAM L’enquête du Journal a mis en évidence le rôle joué par les algorithmes de recommandation d’Instagram pour relier les pédophiles aux vendeurs de CSAM. “Instagram connecte les pédophiles et les guide vers les vendeurs de contenu via des systèmes de recommandation qui excellent à relier ceux qui partagent des intérêts de niche, le Journal et les chercheurs universitaires trouvés”, écrit-il. « Bien que hors de vue pour la plupart sur la plateforme, les comptes sexualisés sur Instagram sont effrontés quant à leur intérêt. Les chercheurs ont découvert qu’Instagram permettait aux gens de rechercher des hashtags explicites tels que #pedowhore et #preteensex et les connectait à des comptes qui utilisaient les termes pour annoncer la vente de matériel sexuel impliquant des enfants. Ces comptes prétendent souvent être gérés par les enfants eux-mêmes et utilisent des pseudonymes ouvertement sexuels incorporant des mots tels que “petite salope pour toi”. Meta a répondu aux questions posées par le WSJ avant la publication en disant qu’il avait bloqué des milliers de hashtags qui sexualisent les enfants, dont certains, selon le rapport du Journal, avaient des millions de publications. Le géant de la technologie a également déclaré qu’il avait interdit à ses systèmes de recommander des termes de recherche aux utilisateurs connus pour être associés à des abus sexuels sur des enfants. Le rapport du WSJ comprend une capture d’écran d’une fenêtre contextuelle servie par Instagram aux chercheurs impliqués dans l’enquête lorsqu’ils ont recherché un hashtag lié à la pédophilie – qui avertissait que “ces résultats peuvent contenir des images d’abus sexuels sur des enfants”. Le texte de la notification décrivait également les risques juridiques liés à la visualisation de CSAM, les dommages causés par les abus sexuels aux enfants et suggérait des ressources pour “obtenir une aide confidentielle” ou signaler un contenu “inapproprié”, avant de proposer deux options à l’utilisateur : “Obtenir des ressources”. ou “Voir les résultats quand même” – suggérant que la plate-forme était au courant des problèmes de CSAM associés aux hashtags mais n’avait pas réussi à supprimer le contenu ou même à empêcher les utilisateurs d’y accéder. Selon le WSJ, Meta n’a supprimé l’option permettant aux utilisateurs de voir le CSAM présumé qu’après avoir posé des questions à ce sujet et son rapport indique que la société a refusé d’expliquer pourquoi elle avait proposé une telle option en premier lieu. Le rôle actif du moteur de recommandation d’Instagram dans la promotion essentiellement des comptes de vendeurs CSAM semble tout aussi troublant, étant donné que la plate-forme s’est avérée capable d’identifier les CSAM présumés – soulevant des questions sur les raisons pour lesquelles Meta n’a pas tiré parti de la surveillance comportementale qu’il déploie sur les utilisateurs pour stimuler l’engagement (et augmenter ses revenus publicitaires) en faisant correspondre les comptes au contenu en fonction de la détection d’activités similaires sur la plate-forme afin de cartographier le réseau pédophile et de le fermer. À ce sujet, Meta a déclaré au WSJ qu’il s’efforçait d’empêcher ses systèmes de recommander aux adultes potentiellement pédophiles de se connecter les uns aux autres ou d’interagir avec le contenu des autres. Les rapports du Journal relatent également des cas où les algorithmes d’Instagram ont suggéré automatiquement des termes de recherche supplémentaires pour contourner un blocage que la plate-forme a appliqué sur les liens vers un service de transfert de fichiers crypté connu pour transmettre du contenu pédophile. Le rapport du WSJ détaille également comment l’affichage d’un seul compte de vendeur mineur sur Instagram a conduit la plate-forme à recommander aux utilisateurs de consulter de nouveaux comptes de vente CSAM. “Après le balayage initial des comptes de la société portés à son attention par Stanford et le Journal, UMass’s [Brian Levine, director of the Rescue Lab] vérifié sur certains des comptes de vendeurs mineurs restants sur Instagram. Comme auparavant, la visualisation d’un seul d’entre eux a conduit Instagram à en recommander de nouveaux. Les suggestions d’Instagram aidaient à reconstruire le réseau que le propre personnel de sécurité de la plate-forme était en train d’essayer de démanteler », a-t-il ajouté.

Laisser un commentaire