« Si Facebook peut être plus sûr pour les Noirs, pourquoi n’est-ce pas le paramètre par défaut? »

Facebook

Crédit: Unsplash / CC0 Public Domain

Facebook a déclaré qu’il prendrait des mesures d’urgence pour limiter les discours de haine et les appels à la violence qui « pourraient conduire à des troubles civils ou à la violence » lorsque le verdict a été rendu dans le procès pour meurtre de l’ancien policier de Minneapolis Derek Chauvin.

Le géant des médias sociaux a déjà utilisé ces puissants outils de modération. Et les critiques de Facebook se demandent: pourquoi ne les déploient-ils pas tout le temps?

« Si Facebook peut être plus sûr pour les Noirs, pourquoi n’est-ce pas le paramètre par défaut? » a déclaré Rashad Robinson, président de Colour Of Change.

Facebook a refusé de dire pourquoi il n’a pas rendu les mesures permanentes ou s’il prévoit de le faire.

Mardi, un jury de Minneapolis a déclaré Chauvin coupable de meurtre au deuxième degré, de meurtre au troisième degré et d’homicide involontaire coupable au deuxième degré pour le meurtre de GeorgeFloyd. La vidéo sur téléphone portable de la mort de Floyd en mai dernier sous le genou de Chauvin est devenue virale et a déclenché des mois de manifestations aux États-Unis et à l’étranger condamnant la brutalité policière et appelant à la justice raciale.

En prévision d’un verdict dans le procès, Facebook s’est engagé à supprimer les publications de Facebook et Instagram qui exhortaient les gens à prendre les armes et tout contenu qui louait, célébrait ou se moquait de la mort de George Floyd. Il a également désigné Minneapolis comme un «endroit à haut risque».

« Comme nous l’avons fait dans les situations d’urgence dans le passé, nous pouvons également limiter la diffusion de contenu que nos systèmes prédisent susceptible d’enfreindre nos normes communautaires dans les domaines du discours de haine, de la violence graphique, de la violence et de l’incitation », Monika Bickert, vice-président de la politique de contenu, a déclaré dans un article de blog.

Facebook a pris des mesures similaires pour freiner le flux de désinformation et d’appels à la violence au lendemain de l’élection présidentielle de 2020.

Emerson Brooking, chercheur résident au Digital Forensic Research Lab de l’Atlantic Council, affirme que la gestion par Facebook du verdict Chauvin est une étude de cas «à quel point nous avons progressé l’année dernière».

« En 2020, les plateformes de médias sociaux ont connu des difficultés et ont souvent échoué à contenir la rhétorique violente, en particulier le langage déshumanisant de (l’ancien) président (Donald) Trump ciblant les manifestants de George Floyd », a déclaré Emerson Brooking, chercheur résident au Digital Forensic Research Lab de l’Atlantic Council.

Désormais, les plateformes comprennent mieux que «les cycles de rhétorique violente sur les réseaux sociaux peuvent parfois faire la différence entre la vie et la mort», a déclaré Brooking, co-auteur de «LikeWar: The Weaponization of Social Media».

Mais Robinson et d’autres militants disent que Facebook n’a pas fait assez pour protéger les utilisateurs noirs de la haine et des abus.

« Color Of Change et nos alliés ont appelé Facebook à appliquer ses politiques de modération de contenu et à limiter les publications incitant à la haine et à la violence pendant des années. Et pourtant, ce n’est qu’aujourd’hui, en prévision du verdict de Derek Chauvin, que Facebook a décidé que c’était le cas. dans leur intérêt corporatif de ne pas être responsable de plus de violence, voire de mort, incitée sur sa plateforme », a-t-il déclaré dans un communiqué.

«Lorsque l’ancien président Donald Trump a publié ‘quand le pillage commence, la fusillade commence’ en réponse aux manifestations qui ont suivi le meurtre de George Floyd, les dirigeants de Facebook ont ​​refusé de supprimer le message et ont insisté sur le fait qu’ils ne pouvaient rien faire  », a poursuivi le communiqué de Robinson. «Lorsque deux manifestants innocents ont été assassinés à Kenosha, dans le Wisconsin, à la suite de la fusillade de Jacob Blake par la police, une fois de plus, on nous a dit qu’ils ne pouvaient rien faire, même s’il a été découvert que des utilisateurs signalaient des messages incitant à la violence des centaines de fois avant les fusillades. « 

Robinson a appelé à « une extension permanente de cet engagement de modération du contenu » ou à l’intervention du Congrès.


Facebook supprime 900 autres comptes liés à des groupes haineux


(c) 2021 États-Unis aujourd’hui
Distribué par Tribune Content Agency, LLC.

Citation: Verdict de culpabilité de Chauvin: « Si Facebook peut être plus sûr pour les Noirs, pourquoi n’est-ce pas le paramètre par défaut? » (2021, 21 avril) récupéré le 21 avril 2021 sur https://techxplore.com/news/2021-04-chauvin-guilty-verdict-facebook-safer.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.