Permettre aux utilisateurs de médias sociaux d’évaluer le contenu aide à lutter contre la désinformation

Permettre aux utilisateurs de médias sociaux d'évaluer le contenu aide à lutter contre la désinformation

Les chercheurs du MIT ont construit un prototype de plate-forme de médias sociaux pour étudier les effets de donner aux utilisateurs plus d’agence pour évaluer l’exactitude du contenu et contrôler les messages qu’ils voient en fonction des évaluations d’exactitude des autres. Crédit : Image : Jose-Luis Olivares, MIT

Lorsqu’elles luttent contre la propagation de la désinformation, les plateformes de médias sociaux placent généralement la plupart des utilisateurs sur le siège passager. Les plates-formes utilisent souvent des algorithmes d’apprentissage automatique ou des vérificateurs de faits humains pour signaler les contenus faux ou mal informés aux utilisateurs.

“Ce n’est pas parce qu’il s’agit du statu quo que c’est la bonne ou la seule façon de procéder”, déclare Farnaz Jahanbakhsh, étudiant diplômé du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) du MIT.

Elle et ses collaborateurs ont mené une étude dans laquelle ils ont plutôt mis ce pouvoir entre les mains des utilisateurs de médias sociaux.

Ils ont d’abord interrogé les gens pour savoir comment ils évitent ou filtrent la désinformation sur les réseaux sociaux. À l’aide de leurs découvertes, les chercheurs ont développé une plate-forme prototype qui permet aux utilisateurs d’évaluer l’exactitude du contenu, d’indiquer les utilisateurs en qui ils ont confiance pour évaluer l’exactitude et de filtrer les publications qui apparaissent dans leur flux en fonction de ces évaluations.

Grâce à une étude sur le terrain, ils ont constaté que les utilisateurs étaient capables d’évaluer efficacement les messages mal informés sans recevoir de formation préalable. De plus, les utilisateurs ont apprécié la possibilité d’évaluer les messages et de visualiser les évaluations de manière structurée. Les chercheurs ont également constaté que les participants utilisaient les filtres de contenu différemment – par exemple, certains bloquaient tout contenu désinformant tandis que d’autres utilisaient des filtres pour rechercher de tels articles.

Ce travail montre qu’une approche décentralisée de la modération peut conduire à une plus grande fiabilité du contenu sur les réseaux sociaux, déclare Jahanbakhsh. Cette approche est également plus efficace et évolutive que les schémas de modération centralisés, et peut plaire aux utilisateurs qui se méfient des plateformes, ajoute-t-elle.

“De nombreuses recherches sur la désinformation supposent que les utilisateurs ne peuvent pas décider ce qui est vrai et ce qui ne l’est pas, et nous devons donc les aider. Nous n’avons pas du tout vu cela. Nous avons vu que les gens traitent le contenu avec un examen minutieux et ils essaient aussi de s’entraider. Mais ces efforts ne sont pas actuellement soutenus par les plateformes », dit-elle.

Jahanbakhsh a rédigé l’article avec Amy Zhang, professeure adjointe à la Allen School of Computer Science and Engineering de l’Université de Washington; et l’auteur principal David Karger, professeur d’informatique au CSAIL. La recherche sera présentée à la conférence ACM sur le travail coopératif assisté par ordinateur et l’informatique sociale, et est publiée dans le cadre de la Actes de l’ACM sur l’interaction homme-machine.

Combattre la désinformation

La propagation de la désinformation en ligne est un problème répandu. Cependant, les méthodes actuelles utilisées par les plateformes de médias sociaux pour marquer ou supprimer les contenus mal informés présentent des inconvénients. Par exemple, lorsque les plateformes utilisent des algorithmes ou des vérificateurs de faits pour évaluer les publications, cela peut créer des tensions parmi les utilisateurs qui interprètent ces efforts comme une atteinte à la liberté d’expression, entre autres problèmes.

“Parfois, les utilisateurs souhaitent que des informations erronées apparaissent dans leur flux parce qu’ils veulent savoir à quoi leurs amis ou leur famille sont exposés, afin qu’ils sachent quand et comment leur en parler”, ajoute Jahanbakhsh.

Les utilisateurs essaient souvent d’évaluer et de signaler les informations erronées par eux-mêmes, et ils tentent de s’entraider en demandant à des amis et à des experts de les aider à comprendre ce qu’ils lisent. Mais ces efforts peuvent se retourner contre eux car ils ne sont pas pris en charge par les plates-formes. Un utilisateur peut laisser un commentaire sur une publication trompeuse ou réagir avec un emoji en colère, mais la plupart des plateformes considèrent ces actions comme des signes d’engagement. Sur Facebook, par exemple, cela pourrait signifier que le contenu désinformant serait montré à plus de personnes, y compris les amis et les abonnés de l’utilisateur, exactement le contraire de ce que voulait cet utilisateur.

Pour surmonter ces problèmes et écueils, les chercheurs ont cherché à créer une plate-forme qui donne aux utilisateurs la possibilité de fournir et d’afficher des évaluations de précision structurées sur les publications, d’indiquer à d’autres personnes en qui ils ont confiance pour évaluer les publications et d’utiliser des filtres pour contrôler le contenu affiché dans leur flux. En fin de compte, l’objectif des chercheurs est de permettre aux utilisateurs de s’entraider plus facilement pour évaluer la désinformation sur les réseaux sociaux, ce qui réduit la charge de travail de chacun.

Les chercheurs ont commencé par interroger 192 personnes, recrutées via Facebook et une liste de diffusion, pour voir si les utilisateurs apprécieraient ces fonctionnalités. L’enquête a révélé que les utilisateurs sont hyper conscients de la désinformation et essaient de la suivre et de la signaler, mais craignent que leurs évaluations ne soient mal interprétées. Ils sont sceptiques quant aux efforts des plateformes pour évaluer le contenu pour eux. Et, alors qu’ils aimeraient des filtres qui bloquent le contenu non fiable, ils ne feraient pas confiance aux filtres exploités par une plate-forme.

À l’aide de ces informations, les chercheurs ont construit une plate-forme prototype de type Facebook, appelée Trustnet. Dans Trustnet, les utilisateurs publient et partagent des articles d’actualité complets et peuvent se suivre pour voir le contenu que d’autres publient. Mais avant qu’un utilisateur puisse publier un contenu sur Trustnet, il doit évaluer ce contenu comme exact ou inexact, ou s’enquérir de sa véracité, qui sera visible par les autres.

“La raison pour laquelle les gens partagent des informations erronées n’est généralement pas parce qu’ils ne savent pas ce qui est vrai et ce qui est faux. Au contraire, au moment du partage, leur attention est mal dirigée vers d’autres choses. Si vous leur demandez d’évaluer le contenu avant de le partager , cela les aide à être plus perspicaces », dit-elle.

Les utilisateurs peuvent également sélectionner des personnes de confiance dont ils verront les évaluations de contenu. Ils le font de manière privée, au cas où ils suivraient quelqu’un avec qui ils sont socialement connectés (peut-être un ami ou un membre de la famille) mais à qui ils ne feraient pas confiance pour évaluer le contenu. La plate-forme propose également des filtres qui permettent aux utilisateurs de configurer leur flux en fonction de la manière dont les publications ont été évaluées et par qui.

Test du réseau de confiance

Une fois le prototype terminé, ils ont mené une étude dans laquelle 14 personnes ont utilisé la plateforme pendant une semaine. Les chercheurs ont constaté que les utilisateurs pouvaient évaluer efficacement le contenu, souvent en fonction de l’expertise, de la source du contenu ou en évaluant la logique d’un article, même s’ils ne recevaient aucune formation. Ils ont également pu utiliser des filtres pour gérer leurs flux, bien qu’ils aient utilisé les filtres différemment.

“Même dans un si petit échantillon, il était intéressant de voir que tout le monde ne voulait pas lire ses actualités de la même manière. Parfois, les gens voulaient avoir des publications désinformantes dans leurs flux parce qu’ils y voyaient des avantages. Cela indique que cette agence est maintenant absent des plateformes de médias sociaux, et il devrait être restitué aux utilisateurs », dit-elle.

Les utilisateurs avaient parfois du mal à évaluer le contenu lorsqu’il contenait plusieurs allégations, certaines vraies et d’autres fausses, ou si un titre et un article étaient disjoints. Cela montre la nécessité de donner aux utilisateurs plus d’options d’évaluation, peut-être en déclarant qu’un article est vrai mais trompeur ou qu’il contient une orientation politique, dit-elle.

Étant donné que les utilisateurs de Trustnet avaient parfois du mal à évaluer les articles dont le contenu ne correspondait pas au titre, Jahanbakhsh a lancé un autre projet de recherche pour créer une extension de navigateur permettant aux utilisateurs de modifier les titres des actualités afin de les aligner davantage sur le contenu de l’article.

Si ces résultats montrent que les utilisateurs peuvent jouer un rôle plus actif dans la lutte contre la désinformation, Jahanbakhsh prévient que donner aux utilisateurs ce pouvoir n’est pas une panacée. D’une part, cette approche pourrait créer des situations où les utilisateurs ne voient que des informations provenant de sources partageant les mêmes idées. Cependant, les filtres et les évaluations structurées pourraient être reconfigurés pour aider à atténuer ce problème, dit-elle.

En plus d’explorer les améliorations de Trustnet, Jahanbakhsh souhaite étudier des méthodes qui pourraient encourager les gens à lire les évaluations de contenu de ceux qui ont des points de vue différents, peut-être par le biais de la gamification. Et parce que les plateformes de médias sociaux peuvent être réticentes à apporter des changements, elle développe également des techniques qui permettent aux utilisateurs de publier et de visualiser des évaluations de contenu via une navigation Web normale, plutôt que sur une plateforme.

Plus d’information:
Farnaz Jahanbakhsh et al, Tirer parti des évaluations structurées de confiance par les pairs pour combattre la désinformation, Actes de l’ACM sur l’interaction homme-machine (2022). DOI : 10.1145/3555637

Fourni par le Massachusetts Institute of Technology

Citation: Autoriser les utilisateurs de médias sociaux à évaluer le contenu aide à lutter contre la désinformation (16 novembre 2022) récupéré le 16 novembre 2022 sur https://techxplore.com/news/2022-11-empowering-social-media-users-content.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.