Le modèle informatique cherche à expliquer la propagation de la désinformation et à suggérer des contre-mesures

Le modèle informatique cherche à expliquer la propagation de la désinformation et à suggérer des contre-mesures

Une illustration graphique d’un pas de temps du modèle POD. Dans le panneau de gauche, (A) illustre la configuration initiale d’un petit réseau avec l’agent institutionnel i1 avec les abonnés m1, s2, s3. Tous les agents du réseau sont étiquetés avec leur force de croyance. Le panneau de droite, (B) représente un pas de temps t = 0 de l’agent i1 envoyer des messages M1(t = 0) = (m0, m1). (i) montre l’envoi initial de m0 = 4 aux abonnés, et (ii) montre s1 et s3 croire le message et le propager à leurs voisins. (iii) et (iv) montrent la même chose pour m1 = 3, mais seulement s3 je crois1. Crédit : DOI : 10.1371 / journal.pone.0261811

Cela commence par un super épandeur et se fraie un chemin à travers un réseau d’interactions, ne laissant finalement personne indemne. Ceux qui ont été exposés précédemment peuvent ressentir peu d’effet lorsqu’ils sont exposés à une variante différente.

Non, ce n’est pas un virus. C’est la propagation contagieuse de la désinformation et de la désinformation, une désinformation entièrement destinée à tromper.

Maintenant, les chercheurs de l’Université Tufts ont mis au point un modèle informatique qui reflète remarquablement la façon dont la désinformation se propage dans la vie réelle. Le travail pourrait fournir un aperçu sur la façon de protéger les gens de la contagion actuelle de la désinformation qui menace la santé publique et la santé de la démocratie, disent les chercheurs.

« Notre société est aux prises avec des croyances répandues dans les complots, une polarisation politique croissante et une méfiance à l’égard des découvertes scientifiques », a déclaré Nicholas Rabb, un doctorat. étudiant en informatique à la Tufts School of Engineering et auteur principal de l’étude, parue le 7 janvier dans la revue Bibliothèque publique des sciences ONE. « Ce modèle pourrait nous aider à comprendre comment la désinformation et les théories du complot se propagent, pour aider à trouver des stratégies pour les contrer. »

Les scientifiques qui étudient la diffusion de l’information prennent souvent une page d’épidémiologistes, modélisant la propagation de fausses croyances sur la façon dont une maladie se propage à travers un réseau social. La plupart de ces modèles, cependant, traitent les personnes dans les réseaux comme prenant toutes également en compte toute nouvelle croyance qui leur est transmise par les contacts.

Les chercheurs de Tufts ont plutôt basé leur modèle sur l’idée que nos croyances préexistantes peuvent fortement influencer notre acceptation de nouvelles informations. De nombreuses personnes rejettent les informations factuelles étayées par des preuves si elles les éloignent trop de ce qu’elles croient déjà. Les agents de santé ont commenté la force de cet effet, observant que certains patients mourant du COVID s’accrochent à la croyance que le COVID n’existe pas.

Pour en tenir compte dans leur modèle, les chercheurs ont attribué une « croyance » à chaque individu du réseau social artificiel. Pour ce faire, les chercheurs ont représenté les croyances des individus dans le modèle informatique par un nombre de 0 à 6, 0 représentant une forte incrédulité et 6 représentant une forte croyance. Les chiffres pourraient représenter l’éventail des croyances sur n’importe quelle question.

Par exemple, on pourrait penser au chiffre 0 représentant la forte incrédulité que les vaccins COVID sont utiles et sûrs, tandis que le chiffre 6 pourrait être la forte conviction que les vaccins COVID sont en fait sûrs et efficaces.

Le modèle crée ensuite un vaste réseau d’individus virtuels, ainsi que des sources institutionnelles virtuelles qui sont à l’origine d’une grande partie des informations qui transitent par le réseau. Dans la vraie vie, il pourrait s’agir des médias d’information, des églises, des gouvernements et des influenceurs des médias sociaux, essentiellement les super-diffuseurs d’informations.

Le modèle commence par une source institutionnelle qui injecte l’information dans le réseau. Si un individu reçoit des informations proches de ses croyances (par exemple, un 5 par rapport à ses 6 actuels), il a une probabilité plus élevée de mettre à jour cette croyance à 5. Si les informations entrantes diffèrent considérablement de ses croyances actuelles, dites un 2 par rapport à un 6 – ils le rejetteront probablement complètement et conserveront leur croyance à 6 niveaux.

D’autres facteurs, tels que la proportion de leurs contacts qui leur envoient l’information (essentiellement, la pression des pairs) ou le niveau de confiance dans la source, peuvent influencer la façon dont les individus mettent à jour leurs croyances. Un modèle de réseau à l’échelle de la population de ces interactions fournit ensuite une vue active de la propagation et de la persistance de la désinformation.

Les améliorations futures du modèle prendront en compte les nouvelles connaissances issues à la fois de la science des réseaux et de la psychologie, ainsi qu’une comparaison des résultats du modèle avec des sondages d’opinion du monde réel et des structures de réseau au fil du temps.

Alors que le modèle actuel suggère que les croyances ne peuvent changer que progressivement, d’autres scénarios pourraient être modélisés qui provoquent un changement plus important dans les croyances – par exemple, un saut de 3 à 6 qui pourrait se produire lorsqu’un événement dramatique arrive à un influenceur et qu’il supplie son adeptes de changer d’avis.

Au fil du temps, le modèle informatique peut devenir plus complexe pour refléter avec précision ce qui se passe sur le terrain, disent les chercheurs, qui, en plus de Rabb, incluent sa conseillère pédagogique Lenore Cowen, professeure d’informatique ; l’informaticien Matthias Scheutz ; et JP deRuiter, professeur de psychologie et d’informatique.

« Il devient trop clair que la simple diffusion d’informations factuelles peut ne pas suffire à avoir un impact sur l’état d’esprit du public, en particulier parmi ceux qui sont enfermés dans un système de croyances qui n’est pas basé sur des faits. » dit Cowen. « Notre effort initial pour incorporer cette idée dans nos modèles de la mécanique de la désinformation répandue dans la société peut nous apprendre comment ramener la conversation publique aux faits et aux preuves. »


L’utilisation des médias sociaux augmente la croyance en la désinformation sur COVID-19


Plus d’information:
Nicholas Rabb et al, Cascades cognitives : comment modéliser (et potentiellement contrer) la propagation des fake news, PLOS UN (2022). DOI : 10.1371 / journal.pone.0261811

Fourni par l’Université Tufts

Citation: Le modèle informatique cherche à expliquer la propagation de la désinformation et à suggérer des contre-mesures (2022, 11 janvier) récupéré le 11 janvier 2022 à partir de https://techxplore.com/news/2022-01-misinformation-countermeasures.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.