Twitter disperse le Trust & Safety Council après la démission de membres clés • TechCrunch

Twitter a aujourd’hui dispersé le Trust & Safety Council, qui était un groupe consultatif composé d’environ 100 chercheurs indépendants et militants des droits de l’homme. Le groupe, formé en 2016, a donné au réseau social des informations sur différents contenus et questions liées aux droits de l’homme, telles que la suppression du matériel d’abus sexuels sur des enfants (CSAM), la prévention du suicide et la sécurité en ligne. Cela pourrait avoir des implications pour la modération mondiale du contenu de Twitter, car le groupe était composé d’experts du monde entier.

Selon plusieurs rapports, les membres du conseil ont reçu lundi un e-mail de Twitter disant que le conseil n’est “pas la meilleure structure” pour obtenir des informations externes sur le produit de l’entreprise et la stratégie politique. Bien que la société ait déclaré qu’elle “continuerait d’accueillir” les idées des membres du conseil, rien ne garantissait qu’elles seraient prises en considération. Étant donné que le groupe consultatif conçu pour fournir des idées a été dissous, cela revient à dire « merci, mais non merci ».

Un rapport du Wall Street Journal note que l’e-mail a été envoyé une heure avant que le conseil n’ait une réunion prévue avec le personnel de Twitter, y compris la nouvelle responsable de la confiance et de la sécurité, Ella Irwin, et le directeur principal des politiques publiques, Nick Pickles.

Cette évolution vient après trois membres clés du conseil Trust & Safety ont démissionné La semaine dernière. Les membres ont déclaré dans une lettre qu’Elon Musk avait ignoré le groupe alors qu’il prétendait se concentrer sur la sécurité des utilisateurs sur la plate-forme.

“La création du Conseil a représenté l’engagement de Twitter à s’éloigner d’une approche centrée sur les États-Unis en matière de sécurité des utilisateurs, une collaboration plus étroite entre les régions et l’importance d’avoir des personnes profondément expérimentées dans l’équipe de sécurité. Ce dernier engagement n’est plus évident, étant donné La récente déclaration de Twitter qu’il s’appuiera davantage sur la modération automatisée du contenu. Les systèmes algorithmiques ne peuvent aller aussi loin dans la protection des utilisateurs contre les abus et les discours de haine en constante évolution avant que des modèles détectables ne se développent », a-t-il déclaré.

Après avoir repris Twitter, Musk a déclaré qu’il allait former un nouveau conseil de modération de contenu avec un “ensemble de points de vue diversifié”, mais il n’y a eu aucun développement sur ce front. Comme ma collègue, Taylor Hatmaker l’a noté dans son histoire en août, ne pas avoir un ensemble robuste de systèmes de filtrage de contenu peut nuire aux groupes sous-représentés comme la communauté LGBTQ.

Laisser un commentaire