Facebook renforce ses outils pour garder les discussions de groupe civiles

Facebook

Crédit : Pixabay/CC0 domaine public

Facebook a renforcé mercredi des outils automatisés pour aider les modérateurs de groupe qui s’efforcent de maintenir les échanges civils à une époque où les points de vue s’affrontent.

Le principal réseau social martelé par les critiques sur le contenu au vitriol dans les flux d’actualités a présenté des groupes comme des enclaves où des personnes ayant des points de vue divergents sur des questions brûlantes peuvent se lier en fonction d’intérêts partagés, de la musique aux passe-temps ou à la parentalité.

« Certains de ces groupes sont des millions de personnes », a déclaré Tom Alison, vice-président de l’ingénierie de Facebook, lors d’un briefing à l’AFP sur les nouveaux outils pour les modérateurs.

Plus de 1,8 milliard de personnes utilisent des groupes chaque mois, et plus de 70 millions d’administrateurs travaillent pour « maintenir les conversations saines » dans les forums, selon Alison.

Bien qu’une grande partie du contenu ne soit pas public dans les groupes, Facebook a cherché des moyens de contrôler le contenu haineux et abusif dans ces forums.

Les systèmes automatisés de Facebook vérifient déjà les publications dans les groupes qui violent les règles du réseau social concernant le contenu acceptable.

Une nouvelle fonctionnalité « Admin Assist » permet aux modérateurs de définir des critères pour ce qui est considéré comme acceptable au sein du groupe, puis de vérifier automatiquement les publications ou les commentaires pour détecter les violations.

Les modérateurs peuvent également utiliser un logiciel pour éliminer les commentaires contenant des liens vers du contenu indésirable ; ralentissez les conversations animées pour laisser la tête froide, ou exigez que les gens soient membres du réseau social ou d’un groupe pendant un certain temps avant de pouvoir participer aux conversations.

« Ce que font ces outils, c’est automatiser les choses que les administrateurs ont faites manuellement, mais n’exposent rien à quoi ils n’avaient pas accès auparavant », a déclaré Alison.

Facebook teste l’intelligence artificielle qui peut surveiller les indications de conversations désagréables, peut-être avec des réponses rapides ou du contenu controversé impliqué, puis alerter les modérateurs.

« L’IA examine les choses associées aux threads qui ont des conflits », a déclaré Alison.

« Certains administrateurs accueillent les personnes ayant des débats ; d’autres ne veulent pas de conversations controversées. »

Un groupe appelé Dads With Daughters par l’association à but non lucratif Fathering Together fait partie de ceux qui ont un accès anticipé pour tester les outils, selon le modérateur Brian Anderson.

La communauté en ligne pour les pères partageant des conseils, des ressources et la fierté d’élever leurs filles compte plus de 127 000 membres.

« Au début, il n’y avait vraiment rien, vous mettez simplement des règles là-bas et ce qu’est un groupe », a déclaré Anderson à propos de la modération au début.

Les outils ajoutés par Facebook ont ​​permis de réduire le nombre de modérateurs nécessaires au groupe, selon Anderson.

Les positions fermes des modérateurs contre les «tropes masculins toxiques» tels que les fusils de chasse pour protéger les filles des prétendants ont contribué à établir le ténor dans la communauté.

« Vous pouvez dire aux groupes qui font vraiment des efforts pour garder un espace civil par rapport aux messages qui deviennent tout de suite méchants. »


Facebook va freiner les groupes privés qui propagent la haine et la désinformation


© 2021 AFP

Citation: Facebook renforce les outils pour garder les discussions de groupe civiles (2021, 16 juin) récupéré le 16 juin 2021 à partir de https://techxplore.com/news/2021-06-facebook-beefs-tools-group-chats.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.