La correction des mensonges en ligne pourrait aggraver les choses

La correction des mensonges en ligne pourrait aggraver les choses

Non seulement la désinformation augmente en ligne, mais tenter de la corriger poliment sur Twitter peut avoir des conséquences négatives, conduisant à des tweets encore moins précis et à une plus grande toxicité de la part des personnes corrigées, selon une nouvelle étude co-écrite par un groupe de chercheurs du MIT. . Crédit: Christine Daniloff, MIT

Vous pensiez donc que le problème des fausses informations sur les réseaux sociaux ne pouvait pas être pire? Permettez-nous d’offrir respectueusement la preuve du contraire.

Non seulement la désinformation augmente en ligne, mais tenter de la corriger poliment sur Twitter peut avoir des conséquences négatives, conduisant à des tweets encore moins précis et à une plus grande toxicité de la part des personnes corrigées, selon une nouvelle étude co-écrite par un groupe de chercheurs du MIT. .

L’étude était centrée sur une expérience sur le terrain sur Twitter dans laquelle une équipe de recherche a proposé des corrections polies, accompagnées de liens vers des preuves solides, en réponse à des tweets manifestement faux sur la politique.

«Ce que nous avons trouvé n’était pas encourageant», déclare Mohsen Mosleh, chercheur affilié à la MIT Sloan School of Management, enseignant à l’Université d’Exeter Business School et co-auteur d’un nouvel article détaillant les résultats de l’étude. « Une fois qu’un utilisateur a été corrigé … ils ont retweeté des informations de qualité nettement inférieure et plus partisanes, et leurs retweets contenaient un langage plus toxique. »

Le document, «Conséquences perverses en aval de la démystification: être corrigé par un autre utilisateur pour avoir publié de fausses nouvelles politiques augmente le partage ultérieur de contenu de faible qualité, partisan et toxique dans une expérience sur le terrain Twitter», a été publié en ligne dans CHI ’21: Proceedings of la Conférence 2021 sur les facteurs humains dans les systèmes informatiques.

Les auteurs de l’article sont Mosleh; Cameron Martel, un Ph.D. candidat au MIT Sloan; Dean Eckles, professeur associé en développement de carrière Mitsubishi au MIT Sloan; et David G. Rand, professeur Erwin H. Schell au MIT Sloan.

De l’attention à l’embarras?

Pour mener l’expérience, les chercheurs ont d’abord identifié 2000 utilisateurs de Twitter, avec un mélange de persuasions politiques, qui avaient tweeté l’un des 11 faux articles fréquemment répétés. Tous ces articles avaient été démystifiés par le site Web Snopes.com. Des exemples de ces informations erronées incluent l’affirmation erronée selon laquelle l’Ukraine a donné plus d’argent que toute autre nation à la Fondation Clinton, et la fausse affirmation selon laquelle Donald Trump, en tant que propriétaire, a une fois expulsé un ancien combattant handicapé pour avoir possédé un chien de thérapie.

L’équipe de recherche a ensuite créé une série de comptes de robots Twitter, qui ont tous existé pendant au moins trois mois et ont gagné au moins 1000 abonnés, et semblaient être de véritables comptes humains. Lorsqu’ils découvraient l’une des 11 fausses allégations tweetées, les robots enverraient un message de réponse du type « Je ne suis pas sûr de cet article – ce n’est peut-être pas vrai. J’ai trouvé un lien sur Snopes qui dit ce titre c’est faux. » Cette réponse renverrait également aux informations correctes.

Entre autres résultats, les chercheurs ont observé que l’exactitude des sources d’informations que les utilisateurs de Twitter retweetaient rapidement avait diminué d’environ 1% au cours des 24 heures suivantes après avoir été corrigées. De même, en évaluant plus de 7 000 retweets avec des liens vers du contenu politique créés par les comptes Twitter au cours des mêmes 24 heures, les chercheurs ont constaté une augmentation de plus de 1% de la tendance partisane du contenu et une augmentation d’environ 3% de la «toxicité». des retweets, basée sur une analyse de la langue utilisée.

Dans tous ces domaines – précision, allégeance partisane et langage utilisé – il y avait une distinction entre les retweets et les principaux tweets écrits par les utilisateurs de Twitter. Les retweets, en particulier, ont une qualité dégradée, contrairement aux tweets originaux des comptes étudiés.

« Notre observation selon laquelle l’effet ne se produit que sur les retweets suggère que l’effet opère via le canal de l’attention », explique Rand, notant que sur Twitter, les gens semblent passer un temps relativement long à créer des tweets primaires et peu de temps à prendre des décisions sur les retweets. .

Il ajoute: «Nous aurions pu nous attendre à ce qu’être corrigé déplacerait son attention vers l’exactitude. Mais au lieu de cela, il semble que se faire corriger publiquement par un autre utilisateur détournait l’attention des gens de l’exactitude, peut-être vers d’autres facteurs sociaux tels que l’embarras. Les effets étaient légèrement plus importants lorsque les gens étaient corrigés par un compte identifié avec le même parti politique qu’eux, ce qui suggère que la réponse négative n’était pas motivée par une animosité partisane.

Prêt pour les heures de grande écoute

Comme l’observe Rand, le résultat actuel ne suit apparemment pas certaines des conclusions précédentes que lui et d’autres collègues ont faites, comme une étude publiée dans Nature en mars, montrant que des rappels neutres et non conflictuels sur le concept d’exactitude peuvent améliorer la qualité des informations que les gens partagent sur les réseaux sociaux.

«La différence entre ces résultats et nos travaux antérieurs sur les poussées de précision subtiles met en évidence la complexité de la psychologie pertinente», déclare Rand.

Comme le note l’article actuel, il y a une grande différence entre la lecture privée de rappels en ligne et la remise en question publique de l’exactitude de son propre tweet. Et comme Rand le note, lorsqu’il s’agit d’émettre des corrections, « il est possible pour les utilisateurs de publier sur l’importance de la précision en général sans démystifier ou attaquer des publications spécifiques, ce qui devrait aider à améliorer la précision et à augmenter la qualité des informations partagées par d’autres. . « 

Au moins, il est possible que des corrections hautement argumentatives produisent des résultats encore pires. Rand suggère que le style des corrections et la nature du matériel source utilisé dans les corrections pourraient tous deux faire l’objet de recherches supplémentaires.

«Les travaux futurs devraient explorer la façon de corriger les mots afin de maximiser leur impact, et comment la source de la correction affecte son impact», dit-il.


Sur les réseaux sociaux, la plupart des gens se soucient des informations exactes, mais ont besoin de rappels pour ne pas répandre de désinformation: étude


Plus d’information:
Mohsen Mosleh et al, Conséquences perverses en aval de la démystification: être corrigé par un autre utilisateur pour avoir publié de fausses nouvelles politiques augmente le partage ultérieur de contenu de faible qualité, partisan et toxique dans une expérience de terrain sur Twitter, Actes de la conférence CHI 2021 sur les facteurs humains dans les systèmes informatiques (2021). DOI: 10.1145 / 3411764.3445642

Fourni par le Massachusetts Institute of Technology

Cette histoire est republiée avec l’aimable autorisation de MIT News (web.mit.edu/newsoffice/), un site populaire qui couvre l’actualité de la recherche, de l’innovation et de l’enseignement du MIT.

Citation: Le double-down est réel: la correction des mensonges en ligne pourrait aggraver les choses (2021, 20 mai) récupéré le 20 mai 2021 sur https://techxplore.com/news/2021-05-double-down-real-online-falsehoods- pire.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.