Les algorithmes de Google aident à tromper le public et à légitimer les théoriciens du complot, selon une étude

Google

Crédit : domaine public CC0

Les algorithmes de Google placent des sous-titres anodins sur d’éminents théoriciens du complot, ce qui induit le public en erreur et amplifie les opinions extrémistes, selon des chercheurs de l’Université Simon Fraser (SFU).

Quelqu’un comme Gavin McInnes, créateur de l’organisation néo-fasciste Proud Boys – une entité terroriste au Canada et un groupe haineux aux États-Unis – n’est pas mieux connu simplement comme un « écrivain canadien », mais c’est la première chose que le moteur de recherche effectue en saisie semi-automatique. le sous-titre s’affiche dans le champ lorsque quelqu’un tape son nom.

Dans une étude publiée dans Journal M/C Ce mois-ci, des chercheurs du Disinformation Project de l’École de communication de SFU ont examiné les sous-titres automatiquement suggérés par Google pour 37 théoriciens du complot connus et ont découvert que “dans tous les cas, le sous-titre de Google n’a jamais été cohérent avec le comportement complotiste de l’acteur”.

Cela signifie que l’influent négationniste de l’école Sandy Hook et théoricien du complot Alex Jones est répertorié comme “animateur de radio américain” et Jerad Miller, un nationaliste blanc responsable d’une fusillade à Las Vegas en 2014, est répertorié comme un “artiste américain” même si la majorité des les résultats de recherche ultérieurs révèlent qu’il est l’auteur d’une fusillade de masse.

Compte tenu de la forte dépendance des internautes au moteur de recherche de Google, les sous-titres « peuvent constituer une menace en normalisant les individus qui propagent des théories du complot, sèment la dissension et la méfiance envers les institutions et causent du tort aux groupes minoritaires et aux personnes vulnérables », explique Nicole Stewart, une responsable de la communication. instructeur de communication et Ph.D. étudiant sur le projet de désinformation. Selon Google, les sous-titres sont générés automatiquement par des algorithmes complexes et le moteur ne peut pas accepter ou créer des sous-titres personnalisés.

Les chercheurs ont constaté que les étiquettes sont neutres ou positives, reflétant principalement la description ou le travail préféré de la personne, mais jamais négatives.

“Les préférences et la compréhension des informations des utilisateurs peuvent être manipulées en fonction de leur confiance dans les résultats de recherche Google, permettant ainsi à ces étiquettes d’être largement acceptées au lieu de fournir une image complète des dommages causés par leurs idéologies et leurs croyances”, déclare Nathan Worku, étudiant à la maîtrise. sur le projet de désinformation.

Alors que l’étude s’est concentrée sur les théoriciens du complot, le même phénomène se produit lors de la recherche de terroristes et de meurtres de masse largement reconnus, selon les auteurs.

Cette étude souligne l’urgente nécessité pour Google de revoir les sous-titres attribués aux théoriciens du complot, aux terroristes et aux meurtriers de masse, afin de mieux informer le public sur la nature négative de ces acteurs, plutôt que de toujours les étiqueter de manière neutre ou positive.

Dirigé par le professeur adjoint Ahmed Al-Rawi, The Disinformation Project est un projet de recherche financé par le gouvernement fédéral qui examine les discours sur les fausses nouvelles dans les médias d’information et les médias sociaux canadiens.

Al-Rawi, Stewart, Worku et la chercheuse post-doctorale Carmen Celestini sont tous les auteurs de cette dernière étude.


Comment les théories du complot aux États-Unis sont devenues plus personnelles, cruelles et courantes après Sandy Hook


Plus d’information:
Ahmed Al-Rawi et al, Comment les algorithmes de saisie semi-automatique de Google sur les théoriciens du complot trompent le public, Journal M/C (2022). DOI : 10.5204/mcj.2852

Fourni par l’Université Simon Fraser

Citation: Les algorithmes de Google aident à tromper le public et à légitimer les théoriciens du complot, selon une étude (2022, 31 mars) récupéré le 31 mars 2022 sur https://techxplore.com/news/2022-03-google-algorithms-legitimize-conspiracy-theorists.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.