Les lecteurs aveugles et voyants ont des points de vue très différents sur le contenu qu’il est le plus utile d’inclure dans une légende de graphique

Les lecteurs aveugles et voyants ont des points de vue très différents sur le contenu qu'il est le plus utile d'inclure dans une légende de graphique

Trois colonnes contenant divers graphiques. Le premier contient le graphique canonique du coronavirus Flatten the Curve et deux descriptions textuelles de ce graphique, codées par couleur selon les quatre niveaux du modèle de contenu sémantique présenté dans le document. Le second contient une visualisation de corpus de 2 147 phrases décrivant des graphiques, également codés par couleur, et facettés par type de graphique et difficulté. La troisième contient deux cartes thermiques, correspondant aux préférences classées des lecteurs aveugles et voyants pour les quatre niveaux de contenu sémantique, indiquant que les lecteurs aveugles et voyants ont des préférences fortement divergentes. Crédit : Massachusetts Institute of Technology

Au début de la pandémie de COVID-19, les Centers for Disease Control and Prevention ont produit un graphique simple pour illustrer comment des mesures comme le port du masque et la distanciation sociale pourraient « aplatir la courbe » et réduire le pic d’infections.

Le graphique a été amplifié par les sites d’information et partagé sur les plateformes de médias sociaux, mais il manquait souvent une description textuelle correspondante pour le rendre accessible aux personnes aveugles qui utilisent un lecteur d’écran pour naviguer sur le Web, excluant bon nombre des 253 millions de personnes dans le monde qui ont handicaps visuels.

Ce texte alternatif est souvent absent des graphiques en ligne, et même lorsqu’il est inclus, il est souvent non informatif ou même incorrect, selon les données qualitatives recueillies par les scientifiques du MIT.

Ces chercheurs ont mené une étude auprès de lecteurs aveugles et voyants pour déterminer quel texte est utile à inclure dans une description de graphique, quel texte ne l’est pas et pourquoi. En fin de compte, ils ont constaté que les légendes pour les lecteurs aveugles devraient se concentrer sur les tendances et les statistiques globales du graphique, et non sur ses éléments de conception ou ses informations de plus haut niveau.

Ils ont également créé un modèle conceptuel qui peut être utilisé pour évaluer une description de graphique, que le texte ait été généré automatiquement par un logiciel ou manuellement par un auteur humain. Leur travail pourrait aider les journalistes, les universitaires et les communicateurs à créer des descriptions plus efficaces pour les personnes aveugles et guider les chercheurs dans le développement de meilleurs outils pour générer automatiquement des sous-titres.

« Quatre-vingt-dix-neuf virgule neuf pour cent des images sur Twitter n’ont aucune description – et ce n’est pas une hyperbole, c’est la statistique réelle », déclare Alan Lundgard, étudiant diplômé du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) et auteur principal de l’article. « Demander aux gens de rédiger manuellement ces descriptions semble être difficile pour diverses raisons. Peut-être que des outils semi-autonomes pourraient aider à cela. Mais il est crucial de faire ce travail de conception participative préliminaire pour déterminer quelle est la cible de ces outils. ne générant pas de contenu qui n’est soit pas utile à son public cible, soit, dans le pire des cas, erroné. »

Lundgard a écrit l’article avec l’auteur principal Arvind Satyanarayan, professeur adjoint d’informatique qui dirige le groupe de visualisation dans CSAIL. La recherche sera présentée à la conférence de visualisation de l’Institute of Electrical and Electronics Engineers en octobre.

Évaluation des visualisations

Pour développer le modèle conceptuel, les chercheurs prévoyaient de commencer par étudier les graphiques présentés par des publications en ligne populaires telles que FiveThirtyEight et NYTimes.com, mais ils se sont heurtés à un problème : ces graphiques manquaient pour la plupart de descriptions textuelles. Au lieu de cela, ils ont collecté des descriptions de ces graphiques auprès d’étudiants diplômés dans une classe de visualisation de données du MIT et via un sondage en ligne, puis ont regroupé les légendes en quatre catégories.

Les descriptions de niveau 1 se concentrent sur les éléments du graphique, tels que son titre, sa légende et ses couleurs. Les descriptions de niveau 2 décrivent le contenu statistique, comme le minimum, le maximum ou les corrélations. Les descriptions de niveau 3 couvrent les interprétations perceptives des données, comme les tendances complexes ou les clusters. Les descriptions de niveau 4 incluent des interprétations subjectives qui vont au-delà des données et s’appuient sur les connaissances de l’auteur.

Dans une étude avec des lecteurs aveugles et voyants, les chercheurs ont présenté des visualisations avec des descriptions à différents niveaux et ont demandé aux participants d’évaluer leur utilité. Alors que les deux groupes ont convenu que le contenu de niveau 1 en lui-même n’était pas très utile, les lecteurs voyants ont donné les notes les plus élevées au contenu de niveau 4 tandis que les lecteurs aveugles ont classé ce contenu parmi les moins utiles.

Les résultats de l’enquête ont révélé qu’une majorité de lecteurs aveugles insistaient sur le fait que les descriptions ne devraient pas contenir l’éditorialisation d’un auteur, mais plutôt s’en tenir à des faits simples sur les données. D’un autre côté, la plupart des lecteurs voyants préféraient une description qui racontait une histoire sur les données.

« Pour moi, une découverte surprenante sur le manque d’utilité du contenu de plus haut niveau est qu’il est très étroitement lié aux sentiments sur l’agence et le contrôle en tant que personne handicapée. Dans notre recherche, les lecteurs aveugles ne voulaient spécifiquement pas que les descriptions disent leur dire ce qu’il faut penser des données. Ils veulent que les données soient accessibles d’une manière qui leur permet de les interpréter par eux-mêmes, et ils veulent avoir l’agence pour faire cette interprétation », a déclaré Lundgard.

Un avenir plus inclusif

Ce travail pourrait avoir des implications alors que les scientifiques des données continuent de développer et d’affiner les méthodes d’apprentissage automatique pour la génération automatique de sous-titres et de texte alternatif.

« Nous ne sommes pas encore capables de le faire, mais il n’est pas inconcevable d’imaginer qu’à l’avenir nous serions en mesure d’automatiser la création d’une partie de ce contenu de plus haut niveau et de construire des modèles qui ciblent le niveau 2 ou le niveau 3 dans notre framework . Et maintenant, nous savons quelles sont les questions de recherche. Si nous voulons produire ces sous-titres automatisés, que devraient dire ces sous-titres ? Nous pouvons être un peu plus orientés dans nos recherches futures car nous avons ces quatre niveaux », explique Satyanarayan.

À l’avenir, le cadre à quatre niveaux pourrait également aider les chercheurs à développer des modèles d’apprentissage automatique pouvant suggérer automatiquement des visualisations efficaces dans le cadre du processus d’analyse des données, ou des modèles pouvant extraire les informations les plus utiles d’un graphique.

Cette recherche pourrait également éclairer les futurs travaux du groupe de Satyanarayan qui cherche à rendre les visualisations interactives plus accessibles aux lecteurs aveugles qui utilisent un lecteur d’écran pour accéder et interpréter les informations.

« La question de savoir comment s’assurer que les tableaux et les graphiques sont accessibles aux utilisateurs de lecteurs d’écran est à la fois un problème d’équité socialement important et un défi qui peut faire progresser l’état de l’art en matière d’IA », déclare Meredith Ringel Morris, directrice et principale. scientifique de l’équipe People + AI Research de Google Research, qui n’a pas participé à cette étude. « En introduisant un cadre de conceptualisation des descriptions en langage naturel des graphiques d’informations qui est fondé sur les besoins des utilisateurs finaux, ce travail permet de garantir que les futurs chercheurs en IA concentreront leurs efforts sur des problèmes alignés sur les valeurs des utilisateurs finaux. »

Morris ajoute : « Les descriptions riches en langage naturel des graphiques de données élargiront non seulement l’accès aux informations critiques pour les personnes aveugles, mais bénéficieront également à un public beaucoup plus large grâce à des interactions sans yeux via des haut-parleurs intelligents, des chatbots et d’autres les agents deviennent de plus en plus courants.


Les descriptions Chrome des images donneront des indices aux utilisateurs aveugles et malvoyants


Plus d’information:
Alan Lundgard et al, Visualisation accessible via des descriptions en langage naturel : un modèle à quatre niveaux de contenu sémantique, Transactions IEEE sur la visualisation et l’infographie (2021). DOI : 10.1109 / TVCG.2021.3114770

Fourni par le Massachusetts Institute of Technology

Cette histoire est republiée avec l’aimable autorisation de MIT News (web.mit.edu/newsoffice/), un site populaire qui couvre l’actualité de la recherche, de l’innovation et de l’enseignement du MIT.

Citation: Les lecteurs aveugles et voyants ont des points de vue très différents sur le contenu qu’il est le plus utile d’inclure dans une légende de graphique (2021, 12 octobre) récupéré le 12 octobre 2021 à partir de https://techxplore.com/news/2021-10-sighted-readers- sharply-content.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.