Elon Musk pourrait annuler la modération des médias sociaux, tout comme nous apprenons comment cela peut arrêter la désinformation

Elon Musk

Crédit : Pixabay/CC0 Domaine public

L’achat de Twitter par “l’absolutiste de la liberté d’expression” Elon Musk pour 44 milliards de dollars (36 milliards de livres sterling) inquiète de nombreuses personnes. L’inquiétude est que le site commencera à modérer moins le contenu et à diffuser davantage de désinformation, surtout après son annonce qu’il annulerait l’interdiction de l’ancien président américain Donald Trump.

Il y a de bonnes raisons de s’inquiéter. La recherche montre que le partage d’informations non fiables peut affecter négativement la civilité des conversations, la perception des principaux problèmes sociaux et politiques et le comportement des gens.

La recherche suggère également que la simple publication d’informations précises pour contrer les fausses informations dans l’espoir que la vérité l’emporte ne suffit pas. D’autres types de modération sont également nécessaires. Par exemple, nos travaux sur la désinformation sur les réseaux sociaux pendant le COVID ont montré qu’elle se propageait beaucoup plus efficacement que les articles de vérification des faits connexes.

Cela implique qu’une sorte de modération sera toujours nécessaire pour stimuler la diffusion d’informations précises et permettre au contenu factuel de prévaloir. Et bien que la modération soit extrêmement difficile et ne réussisse pas toujours à arrêter la désinformation, nous en apprenons davantage sur ce qui fonctionne à mesure que les entreprises de médias sociaux intensifient leurs efforts.

Pendant la pandémie, d’énormes quantités de désinformation ont été partagées et de faux messages peu fiables ont été amplifiés sur toutes les principales plateformes. Le rôle de la désinformation liée aux vaccins sur la réticence à la vaccination, en particulier, a intensifié la pression sur les entreprises de médias sociaux pour qu’elles fassent plus de modération.

Le propriétaire de Facebook, Meta, a travaillé avec des vérificateurs de faits de plus de 80 organisations pendant la pandémie pour vérifier et signaler la désinformation, avant de supprimer ou de réduire la distribution des publications. Meta affirme avoir supprimé plus de 3 000 comptes, pages et groupes et 20 millions de contenus pour avoir enfreint les règles sur le COVID-19 et la désinformation liée aux vaccins.

La suppression a tendance à être réservée aux contenus qui enfreignent certaines règles de la plate-forme, comme montrer des prisonniers de guerre ou partager des contenus faux et dangereux. L’étiquetage sert à attirer l’attention sur un contenu potentiellement peu fiable. Les règles suivies par les plateformes pour chaque cas ne sont pas immuables et peu transparentes.

Twitter a publié des politiques pour souligner son approche visant à réduire la désinformation, par exemple en ce qui concerne COVID ou alors médias manipulés. Cependant, il est difficile de déterminer à quel moment ces politiques sont appliquées et dans quelle mesure elles semblent varier considérablement d’un contexte à l’autre.

Pourquoi la modération est si difficile

Mais clairement, si l’objectif de modérer la désinformation était de réduire la propagation de fausses déclarations, les efforts des entreprises de médias sociaux n’ont pas été entièrement efficaces pour réduire la quantité de désinformation sur COVID-19.

À l’institut des médias de la connaissance de l’Open University, nous étudions comment la désinformation et les vérifications des faits correspondantes se sont propagées sur Twitter depuis 2016. Nos recherches sur le COVID ont révélé que les vérifications des faits pendant la pandémie sont apparues relativement rapidement après l’apparition de la désinformation. Mais la relation entre les apparences des vérifications des faits et la propagation de la désinformation dans l’étude était moins claire.

L’étude a indiqué que la désinformation était deux fois plus répandue que les vérifications des faits correspondantes. En outre, la désinformation sur les théories du complot était persistante, ce qui concorde avec des recherches antérieures affirmant que la véracité n’est qu’une des raisons pour lesquelles les gens partagent des informations en ligne et que les vérifications des faits ne sont pas toujours convaincantes.

Alors, comment pouvons-nous améliorer la modération ? Les sites de médias sociaux font face à de nombreux défis. Les utilisateurs bannis d’une plateforme peuvent toujours revenir avec un nouveau compte ou ressusciter leur profil sur une autre plateforme. Les diffuseurs de désinformation utilisent des tactiques pour éviter la détection, par exemple en utilisant des euphémismes ou des visuels pour éviter la détection.

Les approches automatisées utilisant l’apprentissage automatique et l’intelligence artificielle ne sont pas assez sophistiquées pour détecter très précisément la désinformation. Ils souffrent souvent de préjugés, d’un manque de formation appropriée, d’une dépendance excessive à la langue anglaise et de difficultés à gérer la désinformation dans les images, la vidéo ou l’audio.

Différentes approches

Mais nous savons aussi que certaines techniques peuvent être efficaces. Par exemple, des recherches ont montré que l’utilisation de simples invites pour encourager les utilisateurs à réfléchir à l’exactitude avant le partage peut réduire l’intention des gens de partager des informations erronées en ligne (au moins en laboratoire). Twitter a précédemment déclaré avoir constaté que l’étiquetage du contenu comme trompeur ou fabriqué peut ralentir la propagation de certaines informations erronées.

Plus récemment, Twitter a annoncé Une nouvelle approche, introduisant des mesures pour lutter contre la désinformation liée à l’invasion russe de l’Ukraine. Il s’agit notamment d’ajouter des étiquettes aux tweets partageant des liens vers des sites Web de médias affiliés à l’État russe. Elle a également réduit la circulation de ces contenus ainsi qu’amélioré sa vigilance vis-à-vis des comptes piratés.

Twitter emploie des personnes en tant que conservateurs pour rédiger des notes donnant un contexte ou des notes sur les tendances de Twitter, relatives à la guerre, pour expliquer pourquoi les choses évoluent. Twitter réclamations avoir supprimé 100 000 comptes depuis le début de la guerre en Ukraine qui étaient en “violation de sa stratégie de manipulation de plateforme”. Il dit également avoir étiqueté ou supprimé 50 000 contenus liés à la guerre en Ukraine.

Dans certaines recherches non encore publiées, nous avons effectué la même analyse que pour le COVID-19, cette fois sur plus de 3 400 allégations concernant l’invasion russe de l’Ukraine, puis surveillant les tweets liés à cette désinformation sur l’invasion de l’Ukraine, et les tweets avec des vérifications des faits attachées . Nous avons commencé à observer différents modèles.

Nous avons remarqué un changement dans la propagation de la désinformation, en ce sens que les fausses allégations ne semblent pas se répandre aussi largement et être supprimées plus rapidement, par rapport aux scénarios précédents. Ce n’est que le début, mais une explication possible est que les dernières mesures ont eu un certain effet.

Si Twitter a trouvé un ensemble utile d’interventions, devenant plus audacieux et plus efficace dans la conservation et l’étiquetage du contenu, cela pourrait servir de modèle pour d’autres plateformes de médias sociaux. Cela pourrait au moins offrir un aperçu du type d’actions nécessaires pour renforcer la vérification des faits et lutter contre la désinformation. Mais cela rend également l’achat du site par Musk et l’implication qu’il réduira la modération encore plus inquiétants.


Twitter déploie des étiquettes d’avertissement de désinformation repensées


Fourni par La Conversation

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Citation: Elon Musk pourrait annuler la modération des réseaux sociaux, tout comme nous apprenons comment cela peut arrêter la désinformation (12 mai 2022) récupéré le 12 mai 2022 sur https://techxplore.com/news/2022-05-elon-musk- modération-des-médias-sociaux.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.