Pourquoi les entreprises sont meilleures que les particuliers pour modérer les commentaires négatifs

X supprimant la fonctionnalité « bloquer » : voici pourquoi les entreprises sont meilleures que les particuliers pour modérer les commentaires négatifs

Crédit : Evolf/Shutterstock

Dans un post récentle propriétaire de X (anciennement Twitter), Elon Musk, a annoncé son intention de supprimer la fonction de blocage de la plateforme de médias sociaux, sauf dans les messages directs.

Les utilisateurs craignent que ce changement dans la modération du contenu de la plateforme n’entraîne une augmentation des contenus hostiles et abusifs, laissant les utilisateurs de la plateforme incapables de se protéger de ses conséquences.

Les utilisateurs de réseaux sociaux ne sont pas les seuls à compter sur la fonction de blocage de X pour contrôler le contenu qu’ils voient et avec lequel ils interagissent. Les entreprises et les marques disposant de comptes officiels sur les réseaux sociaux dépendent également des fonctionnalités de modération intégrées. Cela garantit que leurs fans et abonnés s’engagent dans des interactions positives et civiles.

Les entreprises doivent pouvoir encourager des discussions constructives sur leurs comptes de réseaux sociaux. Cela les aide à établir des relations avec les clients, à augmenter les recommandations de bouche à oreille et à améliorer les ventes. Le contenu en ligne hostile dirigé contre une entreprise ne contribue pas à ces objectifs commerciaux.

La fonctionnalité de « blocage » étant considérablement limitée, les entreprises et les utilisateurs individuels cherchant à contrôler la propagation de contenus en ligne hostiles seront contraints de recourir à d’autres méthodes d’auto-modération. Même si les entreprises ont parfois recours à des utilisateurs individuels pour les aider à modérer du contenu, nos recherches récentes montrent que les comptes officiels des entreprises sont bien mieux placés pour désamorcer les contenus hostiles.

L’importance du blocage

Les recherches montrent que lorsque les utilisateurs des réseaux sociaux sont exposés à du contenu offensant ou abusif en ligne, cela peut entraîner toute une série de conséquences négatives. Ils peuvent ressentir une détresse mentale et une anxiété semblables à celles résultant du harcèlement en personne.

Selon le même travail, lorsqu’ils sont confrontés à du contenu hostile ou offensant sur les réseaux sociaux, les utilisateurs sont également susceptibles de ressentir des émotions négatives et de s’abstenir d’interagir avec les autres. Pour les entreprises, cela peut conduire à des attitudes négatives à l’égard de l’entreprise, qui pourraient également se propager, et à une perte de confiance dans la marque.

La sourdine, le rapport et le blocage sont des fonctionnalités intégrées sur la plupart des plateformes de médias sociaux. Ceux-ci permettent aux utilisateurs de restreindre le contenu auquel ils sont exposés, ainsi que les personnes pouvant interagir avec leur profil. Ces fonctionnalités permettent aux utilisateurs de profiter des avantages des médias sociaux tels que suivre les tendances, rester informés et interagir avec les autres. Ils permettent également aux utilisateurs d’éviter d’être ciblés par des contenus offensants ou indésirables.

La mise en sourdine et le rapport sont deux fonctionnalités qui peuvent toujours être utilisées pour modérer le contenu hostile. Mais ces mesures ne résolvent que partiellement le problème, puisqu’elles n’empêchent pas les harceleurs d’interagir avec les utilisateurs des réseaux sociaux ou de traquer leurs profils. Le blocage est sans doute la fonctionnalité de modération de plateforme la plus efficace. Il donne aux utilisateurs un contrôle total sur qui et avec quel contenu ils interagissent sur les réseaux sociaux.

Le blocage n’est pas seulement une fonctionnalité de modération souhaitable ; c’est une exigence de pratique commerciale responsable. Pour éviter tout contenu abusif et offensant, les politiques de l’App Store et du Google Play Store stipulent que la « possibilité de bloquer les utilisateurs abusifs du service » et la fourniture « d’un système intégré à l’application pour bloquer l’UGC (contenu généré par l’utilisateur) et les utilisateurs » sont nécessaires. conditions pour toutes les applications qu’ils répertorient.

Au Royaume-Uni, la version actuelle du projet de loi sur la sécurité en ligne exigera que les plateformes de médias sociaux offrent aux adultes des outils appropriés pour empêcher que des contenus offensants ou abusifs ne leur parviennent. Ceci est généralement activé par la fonction de blocage.

Modération du contenu à l’avenir

Signaler et masquer le contenu hostile pourrait être une option de modération viable pour X à l’avenir. Il est toutefois peu probable que ces mesures suffisent à elles seules. La suppression de la fonctionnalité « bloquer » pourrait signifier que les entreprises et les utilisateurs individuels devraient assumer des responsabilités accrues en matière de modération du contenu.

Certaines recherches ont déjà démontré que les comptes officiels des entreprises recourent à diverses communications de modération – au-delà de la simple censure – en présence de contenu hostile. Et cela peut être utile pour améliorer l’attitude des adeptes de l’entreprise et son image.

Une autre voie à suivre serait de s’appuyer sur les utilisateurs individuels des médias sociaux pour la modération, en particulier sur les comptes importants qui distinguent leur statut des autres grâce à des badges numériques tels que le “chèque bleu” sur X et ” top fan ” sur Facebook.

En effet, les recherches montrent que les comptes de badges numériques participent activement et positivement aux discussions et au contenu généré par les utilisateurs sur les réseaux sociaux. En conséquence, ces comptes pourraient agir comme modérateurs informels et occasionnels.

Notre recherche a examiné si les comptes professionnels officiels ou les comptes individuels importants étaient les plus efficaces pour modérer les contenus hostiles sur les réseaux sociaux. Dans notre première expérience, nous avons présenté aux participants deux scénarios. Dans l’un d’entre eux, un compte professionnel officiel a modéré un contenu hostile. Dans un autre cas, un compte utilisateur de badge numérique est intervenu dans une interaction hostile.

Nous avons constaté que les entreprises sont considérées comme les modérateurs les plus crédibles. Ils étaient les mieux adaptés pour désamorcer les contenus hostiles sans avoir besoin de les masquer ou de les supprimer, ni de bloquer les comptes concernés.

Sur les réseaux sociaux, il est courant que les interventions de modération reçoivent des réactions et des réponses d’utilisateurs observateurs qui soutiennent ou ne sont pas d’accord. La présence de réactions influence probablement la façon dont le modérateur est perçu. Pour cela, dans notre deuxième expérimentation, nous avons étudié la pertinence du modérateur selon que le compte recevait des réactions positives ou négatives de la part d’autres utilisateurs ayant observé l’interaction.

Les participants ont été soumis à quatre scénarios : deux dans lesquels l’intervention de modération du compte professionnel officiel a reçu des émojis positifs ou négatifs et deux dans lesquels un compte utilisateur avec badge numérique a modéré l’interaction hostile et celle-ci a reçu des émojis positifs ou négatifs.

Nos résultats ont une nouvelle fois confirmé que les comptes d’entreprise étaient considérés comme les plus appropriés pour la modération de contenus hostiles par d’autres utilisateurs de réseaux sociaux. C’est le cas même lorsque la modération reçoit des réactions négatives de la part des abonnés du compte professionnel. En revanche, les comptes d’utilisateurs de badges numériques ne sont considérés comme crédibles que lorsque leur modération suscite des réactions positives de la part des abonnés du compte de réseau social de l’entreprise.

Que la fonctionnalité « bloquer » sur X soit supprimée ou non, la modération des contenus offensants et abusifs ne doit pas être laissée aux seules entreprises et aux comptes individuels.

La modération du contenu doit être un effort collectif entre les plateformes, les entreprises et les utilisateurs individuels. Les entreprises de médias sociaux ont la responsabilité d’équiper leurs utilisateurs de fonctionnalités et d’outils de conception qui leur permettent de profiter de leurs plateformes.

Fourni par La conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l’article original.La conversation

Citation: X supprimant la fonctionnalité « bloquer » : Pourquoi les entreprises sont meilleures que les gens pour modérer les commentaires négatifs (30 août 2023) récupéré le 30 août 2023 sur https://Testeur Joe.com/news/2023-08-block-feature-businesses- modération-des-personnes.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.

Laisser un commentaire