La langue est importante lorsque vous recherchez des personnes controversées sur Google

La langue est importante lorsque vous recherchez des personnes controversées sur Google

Lorsque la langue des paramètres de recherche passe de l’anglais (à gauche) à l’arabe (à droite), les recherches sur Faith Goldy affichent des résultats différents. Crédit : Ahmed Al-Rawi

L’une des fonctionnalités utiles des moteurs de recherche comme Google est la fonction de saisie semi-automatique qui permet aux utilisateurs de trouver des réponses rapides à leurs questions ou requêtes. Cependant, les fonctions de recherche à saisie semi-automatique reposent sur des algorithmes ambigus qui ont été largement critiqués car ils fournissent souvent des résultats biaisés et racistes.

L’ambiguïté de ces algorithmes vient du fait que la plupart d’entre nous en savent très peu à leur sujet, ce qui a conduit certains à les qualifier de “boîtes noires”. Les moteurs de recherche et les plateformes de médias sociaux n’offrent aucun aperçu ou détail significatif sur la nature des algorithmes qu’ils utilisent. En tant qu’utilisateurs, nous avons le droit de connaître les critères utilisés pour produire des résultats de recherche et la façon dont ils sont personnalisés pour les utilisateurs individuels, y compris la façon dont les personnes sont étiquetées par les algorithmes du moteur de recherche de Google.

Pour ce faire, nous pouvons utiliser un processus d’ingénierie inverse, en effectuant plusieurs recherches en ligne sur une plateforme spécifique pour mieux comprendre les règles en place. Par exemple, le hashtag #fentanyl peut actuellement être recherché et utilisé sur Twitter, mais il n’est pas autorisé à être utilisé sur Instagram, indiquant le type de règles disponibles sur chaque plateforme.

Informations automatisées

Lors de la recherche de célébrités à l’aide de Google, il y a souvent un bref sous-titre et une image miniature associés à la personne qui sont automatiquement générés par Google.

Nos récentes recherches ont montré comment le moteur de recherche de Google normalise les théoriciens du complot, les personnalités haineuses et autres personnes controversées en proposant des sous-titres neutres et même parfois positifs. Nous avons utilisé des réseaux privés virtuels (VPN) pour dissimuler nos emplacements et masquer nos historiques de navigation afin de nous assurer que les résultats de recherche ne sont pas basés sur notre emplacement géographique ou nos historiques de recherche.

Nous avons constaté, par exemple, qu’Alex Jones, “le théoricien du complot le plus prolifique de l’Amérique contemporaine”, est défini comme un “animateur de radio américain”, tandis que David Icke, qui est également connu pour propager des complots, est décrit comme un “ancien footballeur .” Ces termes sont considérés par Google comme les caractéristiques définissant ces personnes et peuvent induire le public en erreur.

Descripteurs dynamiques

Dans le peu de temps qui s’est écoulé depuis que notre recherche a été menée à l’automne 2021, les résultats de recherche semblent avoir changé.

J’ai constaté que certains des sous-titres que nous avions initialement identifiés ont été modifiés, supprimés ou remplacés. Par exemple, le terroriste norvégien Anders Breivik était sous-titré « Criminel condamné », mais maintenant il n’y a plus d’étiquette qui lui soit associée.

Faith Goldy, la nationaliste blanche canadienne d’extrême droite qui a été bannie de Facebook pour avoir diffusé des propos haineux, n’avait pas de sous-titre. Maintenant, cependant, son nouveau sous-titre Google est “Commentateur canadien”.






Safiya Noble, auteur de Algorithms of Oppression, explore les biais dans les algorithmes.

Il n’y a aucune indication de ce qu’un commentateur suggère. Le même constat se retrouve à propos du suprématiste blanc américain Richard B. Spencer. Spencer n’avait pas de label il y a quelques mois, mais est désormais un “éditeur américain”, ce qui ne caractérise certainement pas son héritage.

Un autre changement concerne Lauren Southern, une membre d’extrême droite canadienne, qui était étiquetée comme une « activiste canadienne », un terme plutôt positif, mais qui est maintenant décrite comme une « auteure canadienne ».

Les changements de sous-titres apparemment aléatoires montrent que la programmation des boîtes noires algorithmiques n’est pas statique, mais change en fonction de plusieurs indicateurs qui nous sont encore inconnus.

Recherche en arabe ou en anglais

Une deuxième nouvelle découverte importante de notre recherche est liée aux différences dans les résultats des sous-titres en fonction de la langue de recherche sélectionnée. Je parle et lis l’arabe, j’ai donc changé le paramètre de langue et recherché les mêmes chiffres pour comprendre comment ils sont décrits en arabe.

À ma grande surprise, j’ai trouvé plusieurs différences majeures entre l’anglais et l’arabe. Encore une fois, il n’y avait rien de négatif dans la description de certains des chiffres que j’ai recherchés. Alex Jones devient un “présentateur télé de talk-shows” et Lauren Southern est décrite à tort comme une “politicienne”.

Et il y a bien plus dans les recherches en langue arabe : Faith Goldy devient un « expert », David Icke se transforme d’un « ancien footballeur » en un « auteur » et Jake Angeli, le « chaman QAnon » devient un « acteur » en arabe et un “Activiste américain” en anglais.

Richard B. Spencer devient un « éditeur » et Dan Bongino, un complotiste définitivement banni de YouTube, passe d’un « animateur de radio américain » en anglais à un « politicien » en arabe. Fait intéressant, la figure d’extrême droite, Tommy Robinson, est décrite comme un “activiste politique anglo-britannique” en anglais mais n’a pas de sous-titre en arabe.

Étiquettes trompeuses

Ce que l’on peut déduire de ces différences linguistiques, c’est que ces descripteurs sont insuffisants, car ils condensent la description à un ou quelques mots qui peuvent être trompeurs.

Comprendre le fonctionnement des algorithmes est important, d’autant plus que la désinformation et la méfiance sont en hausse et que les théories du complot se propagent encore rapidement. Nous avons également besoin de mieux comprendre le fonctionnement de Google et des autres moteurs de recherche. Il est important de tenir ces entreprises responsables de leurs algorithmes biaisés et ambigus.


Les algorithmes de Google aident à tromper le public et à légitimer les théoriciens du complot, selon une étude


Fourni par La Conversation

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Citation: La langue compte quand googler des personnes controversées (12 mai 2022) récupéré le 12 mai 2022 sur https://techxplore.com/news/2022-05-language-googling-controversial-people.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.