Pourquoi les entreprises de médias sociaux auront du mal à suivre les nouvelles règles de l’UE sur les contenus illégaux

des médias sociaux

Crédit : domaine public Unsplash/CC0

Les médias sociaux nous ont permis de nous connecter les uns aux autres comme jamais auparavant. Mais cela a eu un prix : cela a donné un mégaphone à tout le monde, y compris les terroristes, les pédophiles et les groupes haineux. Les institutions de l’UE sont récemment parvenues à un accord sur la loi sur les services numériques (DSA), qui vise à “Assurez-vous que ce qui est illégal hors ligne est traité comme illégal en ligne.”

Le gouvernement britannique a également en préparation un projet de loi sur la sécurité en ligne, visant à renforcer les exigences imposées aux plateformes numériques pour supprimer le matériel illégal.

L’échelle à laquelle opèrent les grandes plates-formes de médias sociaux – elles peuvent avoir des milliards d’utilisateurs à travers le monde – présente un défi majeur dans la surveillance des contenus illégaux. Ce qui est illégal dans un pays peut être une expression légale et protégée dans un autre. Par exemple, les règles concernant la critique du gouvernement ou des membres d’une famille royale.

Cela se complique lorsqu’un utilisateur publie depuis un pays et que la publication est partagée et consultée dans d’autres pays. Au Royaume-Uni, il y a même eu des situations où il était légal d’imprimer quelque chose en première page d’un journal en Écosse, mais pas en Angleterre.

La DSA laisse aux États membres de l’UE le soin de définir le contenu illégal dans leurs propres lois.

L’approche de la base de données

Même là où la loi est claire, par exemple quelqu’un qui met en vente des drogues contrôlées ou qui recrute pour des groupes terroristes interdits, la modération du contenu sur les plateformes de médias sociaux est confrontée à des défis d’échelle.

Les utilisateurs font des centaines de millions de publications par jour. L’automatisation peut détecter le contenu illégal connu sur la base d’une empreinte floue du contenu du fichier. Mais cela ne fonctionne pas sans base de données et le contenu doit être revu avant d’être ajouté.

En 2021, l’Internet Watch Foundation a enquêté sur plus de rapports qu’au cours de ses 15 premières années d’existence, dont 252 000 contenant des cas de maltraitance d’enfants : une augmentation de 64 % en glissement annuel par rapport à 2020.

Cependant, les nouvelles vidéos et images ne seront pas capturées par une base de données. Bien que l’intelligence artificielle puisse essayer de rechercher de nouveaux contenus, elle ne fera pas toujours les choses correctement.

Comment comparer les plateformes sociales ?

Début 2020, Facebook comptait environ 15 000 modérateurs de contenu aux États-Unis, contre 4 500 en 2017. TikTok affirmait avoir 10 000 personnes travaillant sur la “confiance et la sécurité” (ce qui est un peu plus large que la modération de contenu), à la fin 2020. Un rapport de la NYU Stern School of Business de 2020 suggérait que Twitter comptait environ 1 500 modérateurs.

Facebook affirme qu’en 2021, 97 % du contenu qu’ils ont signalé comme discours de haine a été supprimé par l’IA, mais nous ne savons pas ce qui a été manqué, non signalé ou non supprimé.

Le DSA obligera les plus grands réseaux sociaux à ouvrir leurs données et informations à des chercheurs indépendants, ce qui devrait accroître la transparence.

Modérateurs humains contre technologie

L’examen de contenus violents, dérangeants, racistes et haineux peut être traumatisant pour les modérateurs et a conduit à un règlement judiciaire de 52 millions de dollars américains (42 millions de livres sterling). Certains modérateurs de médias sociaux déclarent devoir examiner jusqu’à 8 000 éléments de contenu signalés par jour.

Bien qu’il existe des techniques émergentes basées sur l’IA qui tentent de détecter des types de contenu spécifiques, les outils basés sur l’IA ont du mal à faire la distinction entre un contenu illégal et de mauvais goût ou potentiellement dangereux (mais autrement légal). L’IA peut signaler de manière incorrecte un contenu inoffensif, manquer un contenu préjudiciable et augmentera le besoin d’un examen humain.

Les propres études internes de Facebook auraient trouvé des cas où la mauvaise action a été prise contre les publications jusqu’à “90% du temps”. Les utilisateurs attendent de la cohérence, mais cela est difficile à fournir à grande échelle, et les décisions des modérateurs sont subjectives. Les cas de zone grise contrecarreront même les directives les plus spécifiques et les plus prescriptives.

Équilibre

Le défi s’étend également à la désinformation. La ligne est mince entre la protection de la liberté d’expression et de la liberté de la presse et la prévention de la diffusion délibérée de faux contenus. Les mêmes faits peuvent souvent être formulés différemment, ce qui est bien connu de tous ceux qui connaissent la longue histoire du « spin » en politique.

Les réseaux sociaux s’appuient souvent sur les utilisateurs signalant des contenus préjudiciables ou illégaux, et la DSA cherche à renforcer cela. Mais une approche trop automatisée de la modération peut signaler ou même masquer le contenu qui atteint un nombre défini de rapports. Cela signifie que les groupes d’utilisateurs qui souhaitent supprimer du contenu ou des points de vue peuvent militariser le signalement de masse du contenu.

Les entreprises de médias sociaux se concentrent sur la croissance des utilisateurs et le temps passé sur la plateforme. Tant que l’abus ne les retient pas, ils gagneront probablement plus d’argent. C’est pourquoi il est important que les plateformes prennent des mesures stratégiques (mais potentiellement polarisantes), comme la destitution de l’ancien président américain Donald Trump. depuis Twitter.

La plupart des demandes formulées par la DSA sont raisonnables en elles-mêmes, mais seront difficiles à mettre en œuvre à grande échelle. Une surveillance accrue du contenu conduira à une utilisation accrue de l’automatisation, qui ne peut pas faire d’évaluations subjectives du contexte. Les appels peuvent être trop lents pour offrir un recours significatif si un utilisateur reçoit à tort une interdiction automatique.

Si les sanctions légales en cas d’erreur de modération de contenu sont suffisamment élevées pour les réseaux sociaux, ils n’auront peut-être d’autre choix à court terme que de limiter plus soigneusement ce que les utilisateurs obtiennent. L’approche de TikTok en matière de contenu trié sur le volet a été largement critiquée. Les biais de plate-forme et les “bulles de filtrage” sont une réelle préoccupation. Des bulles de filtre sont créées où le contenu qui vous est présenté est automatiquement sélectionné par un algorithme, qui tente de deviner ce que vous voulez voir ensuite, en fonction de données telles que celles que vous avez précédemment consultées. Les utilisateurs accusent parfois les sociétés de médias sociaux de biais de plateforme ou de modération injuste.

Existe-t-il un moyen de modérer un mégaphone mondial ? Je dirais que les preuves indiquent non, du moins pas à grande échelle. Nous verrons probablement la réponse se jouer par l’application de la DSA devant les tribunaux.


Les modérateurs de Facebook font pression pour des protections de sécurité en cas de pandémie


Fourni par La Conversation

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Citation: Pourquoi les entreprises de médias sociaux auront du mal à suivre les nouvelles règles de l’UE sur les contenus illégaux (10 mai 2022) récupéré le 10 mai 2022 sur https://techxplore.com/news/2022-05-social-media-firms-struggle-eu. html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.