Facebook a un problème de désinformation et bloque l’accès aux données sur combien il y a et qui est affecté

Facebook

Crédit : Pixabay/CC0 domaine public

Des documents internes divulgués suggèrent que Facebook – qui s’est récemment rebaptisé Meta – fait bien pire qu’il ne le prétend pour minimiser la désinformation sur le vaccin COVID-19 sur la plate-forme de médias sociaux Facebook.

La désinformation en ligne sur le virus et les vaccins est une préoccupation majeure. Dans une étude, les répondants au sondage qui ont obtenu une partie ou la totalité de leurs nouvelles de Facebook étaient beaucoup plus susceptibles de résister au vaccin COVID-19 que ceux qui ont obtenu leurs nouvelles de sources médiatiques grand public.

En tant que chercheur qui étudie les médias sociaux et civiques, je pense qu’il est extrêmement important de comprendre comment la désinformation se propage en ligne. Mais c’est plus facile à dire qu’à faire. Le simple fait de compter les cas de désinformation trouvés sur une plate-forme de médias sociaux laisse deux questions clés sans réponse : quelle est la probabilité que les utilisateurs soient confrontés à de la désinformation, et certains utilisateurs sont-ils particulièrement susceptibles d’être affectés par la désinformation ? Ces questions sont le problème du dénominateur et le problème de la distribution.

L’étude de désinformation COVID-19, “Facebook’s Algorithm: a Major Threat to Public Health”, publiée par le groupe de défense de l’intérêt public Avaaz en août 2020, a rapporté que les sources qui partageaient fréquemment la désinformation sur la santé – 82 sites Web et 42 pages Facebook – avaient un total estimé atteindre 3,8 milliards de vues en un an.

À première vue, c’est un nombre étonnamment grand. Mais il est important de se rappeler qu’il s’agit du numérateur. Pour comprendre ce que signifient 3,8 milliards de vues en un an, il faut aussi calculer le dénominateur. Le numérateur est la partie d’une fraction au-dessus de la ligne, qui est divisée par la partie de la fraction en dessous de la ligne, le dénominateur.

Obtenir une certaine perspective

Un dénominateur possible est 2,9 milliards d’utilisateurs actifs de Facebook par mois, auquel cas, en moyenne, chaque utilisateur de Facebook a été exposé à au moins une information provenant de ces sources de désinformation sur la santé. Mais ce sont 3,8 milliards de vues de contenu, pas des utilisateurs discrets. Combien d’informations l’utilisateur moyen de Facebook rencontre-t-il en un an ? Facebook ne divulgue pas ces informations.

Les chercheurs de marché estiment que les utilisateurs de Facebook passent de 19 minutes par jour à 38 minutes par jour sur la plateforme. Si les 1,93 milliard d’utilisateurs actifs quotidiens de Facebook voient en moyenne 10 publications dans leurs sessions quotidiennes, une estimation très prudente, le dénominateur de ces 3,8 milliards d’informations par an est de 7 044 milliards de milliards (1,93 milliard d’utilisateurs quotidiens multiplié par 10 publications quotidiennes multipliées par 365). jours dans une année). Cela signifie qu’environ 0,05 % du contenu sur Facebook est publié par ces pages Facebook suspectes.

Le chiffre de 3,8 milliards de vues englobe tout le contenu publié sur ces pages, y compris le contenu inoffensif sur la santé, de sorte que la proportion de publications Facebook qui sont de la désinformation sur la santé est inférieure à un vingtième d’un pour cent.

Est-il inquiétant qu’il y ait suffisamment de désinformation sur Facebook pour que tout le monde ait probablement rencontré au moins un cas ? Ou est-ce rassurant que 99,95 % de ce qui est partagé sur Facebook ne provient pas des sites contre lesquels Avaaz met en garde ? Ni.

Diffusion de désinformation

En plus d’estimer un dénominateur, il est également important de considérer la distribution de cette information. Tout le monde sur Facebook est-il également susceptible de rencontrer de la désinformation sur la santé ? Ou les personnes qui s’identifient comme anti-vaccin ou qui recherchent des informations sur la « santé alternative » sont-elles plus susceptibles de rencontrer ce type de désinformation ?

Une autre étude sur les médias sociaux axée sur le contenu extrémiste sur YouTube propose une méthode pour comprendre la diffusion de la désinformation. À l’aide des données du navigateur de 915 internautes, une équipe de l’Anti-Defamation League a recruté un large échantillon démographiquement diversifié d’internautes américains et a suréchantillonné deux groupes : les gros utilisateurs de YouTube et les individus qui ont montré de forts préjugés raciaux ou sexistes négatifs dans un ensemble de questions. demandé par les enquêteurs. Le suréchantillonnage consiste à enquêter sur un petit sous-ensemble d’une population plus que sa proportion de la population afin de mieux enregistrer les données sur le sous-ensemble.

Les chercheurs ont découvert que 9,2 % des participants ont regardé au moins une vidéo d’une chaîne extrémiste et 22,1 % ont regardé au moins une vidéo d’une chaîne alternative, au cours des mois couverts par l’étude. Un élément de contexte important à noter : un petit groupe de personnes était responsable de la plupart des vues de ces vidéos. Et plus de 90 % des vues de vidéos extrémistes ou « alternatives » ont été enregistrées par des personnes ayant signalé un niveau élevé de ressentiment racial ou sexiste lors de l’enquête préalable à l’étude.

Alors qu’environ 1 personne sur 10 a trouvé du contenu extrémiste sur YouTube et 2 sur 10 ont trouvé du contenu de provocateurs de droite, la plupart des personnes qui ont rencontré un tel contenu l’ont “rebondi” et sont allées ailleurs. Le groupe qui a trouvé du contenu extrémiste et en recherchait davantage était des personnes qui avaient vraisemblablement un intérêt : des personnes ayant de fortes attitudes racistes et sexistes.

Les auteurs ont conclu que “la consommation de ce contenu potentiellement dangereux est plutôt concentrée parmi les Américains qui sont déjà très en colère”, et que les algorithmes de YouTube pourraient renforcer ce schéma. En d’autres termes, le simple fait de connaître la fraction d’utilisateurs qui rencontrent un contenu extrême ne vous dit pas combien de personnes le consomment. Pour cela, vous devez également connaître la distribution.

Superspreaders ou Whack-a-mole ?

Une étude largement médiatisée du groupe de défense des discours de haine Center for Countering Digital Hate intitulée Pandemic Profiteers a montré que sur 30 groupes Facebook anti-vaccins examinés, 12 célébrités anti-vaccins étaient responsables de 70 % du contenu diffusé dans ces groupes, et les trois plus importants étaient responsables de près de la moitié. Mais encore une fois, il est essentiel de poser des questions sur les dénominateurs : combien de groupes anti-vaccins sont hébergés sur Facebook ? Et quel pourcentage d’utilisateurs de Facebook rencontre le type d’informations partagées dans ces groupes ?

Sans informations sur les dénominateurs et la distribution, l’étude révèle quelque chose d’intéressant sur ces 30 groupes Facebook anti-vaccins, mais rien sur la désinformation médicale sur Facebook dans son ensemble.

Ces types d’études soulèvent la question suivante : « Si les chercheurs peuvent trouver ce contenu, pourquoi les plateformes de médias sociaux ne peuvent-elles pas l’identifier et le supprimer ? » L’étude Pandemic Profiteers, qui laisse entendre que Facebook pourrait résoudre 70% du problème de désinformation médicale en supprimant seulement une dizaine de comptes, prône explicitement la déplateforme de ces dealers de désinformation. Cependant, j’ai découvert que 10 des 12 influenceurs anti-vaccins présentés dans l’étude ont déjà été supprimés par Facebook.

Considérez Del Bigtree, l’un des trois principaux diffuseurs de désinformation sur la vaccination sur Facebook. Le problème n’est pas que Bigtree recrute de nouveaux abonnés anti-vaccins sur Facebook ; c’est que les utilisateurs de Facebook suivent Bigtree sur d’autres sites Web et apportent son contenu dans leurs communautés Facebook. Ce ne sont pas 12 individus et groupes qui publient des informations erronées sur la santé en ligne, mais probablement des milliers d’utilisateurs individuels de Facebook partageant des informations erronées trouvées ailleurs sur le Web, mettant en vedette ces douzaines de personnes. Il est beaucoup plus difficile d’interdire des milliers d’utilisateurs de Facebook que d’interdire 12 célébrités anti-vaccins.

C’est pourquoi les questions de dénominateur et de distribution sont essentielles pour comprendre la désinformation en ligne. Le dénominateur et la distribution permettent aux chercheurs de se demander dans quelle mesure les comportements en ligne sont courants ou rares, et qui s’engage dans ces comportements. Si des millions d’utilisateurs sont chacun confrontés occasionnellement à des informations médicales erronées, les étiquettes d’avertissement peuvent constituer une intervention efficace. Mais si la désinformation médicale est principalement consommée par un groupe plus restreint qui recherche et partage activement ce contenu, ces étiquettes d’avertissement sont très probablement inutiles.

Obtenir les bonnes données

Essayer de comprendre la désinformation en la comptant, sans tenir compte des dénominateurs ou de la distribution, c’est ce qui se passe lorsque les bonnes intentions se heurtent à de mauvais outils. Aucune plate-forme de médias sociaux ne permet aux chercheurs de calculer avec précision l’importance d’un contenu particulier sur sa plate-forme.

Facebook limite la plupart des chercheurs à son outil Crowdtangle, qui partage des informations sur l’engagement de contenu, mais ce n’est pas la même chose que les vues de contenu. Twitter interdit explicitement aux chercheurs du calcul d’un dénominateur, soit le nombre d’utilisateurs de Twitter, soit le nombre de tweets partagés en une journée. YouTube rend si difficile de savoir combien de vidéos sont hébergées sur leur service que Google demande régulièrement aux candidats aux entretiens d’estimer le nombre de vidéos YouTube hébergées pour évaluer leurs compétences quantitatives.

Les dirigeants des plateformes de médias sociaux ont fait valoir que leurs outils, malgré leurs problèmes, sont bons pour la société, mais cet argument serait plus convaincant si les chercheurs pouvaient vérifier de manière indépendante cette affirmation.

À mesure que les impacts sociétaux des médias sociaux deviennent plus importants, la pression sur les grandes plateformes technologiques pour qu’elles publient davantage de données sur leurs utilisateurs et leur contenu est susceptible d’augmenter. Si ces entreprises réagissent en augmentant la quantité d’informations auxquelles les chercheurs peuvent accéder, regardez de très près : laisseront-elles les chercheurs étudier le dénominateur et la distribution du contenu en ligne ? Et sinon, ont-ils peur de ce que les chercheurs vont trouver ?


Facebook a étiqueté 167 millions de messages d’utilisateurs pour désinformation sur COVID-19


Fourni par La Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.La conversation

Citation: Facebook a un problème de désinformation et bloque l’accès aux données sur combien il y a et qui est affecté (2021, 3 novembre) récupéré le 3 novembre 2021 à partir de https://techxplore.com/news/2021-11-facebook-misinformation -problème-bloquant-accès.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.