Une étude révèle que la toxicité dans la communauté open source diffère des autres forums Internet

mauvais ordinateur portable

Crédit : Pixabay/CC0 Domaine public

Les trolls, les haineux, les incendiaires et autres personnages laids sont, malheureusement, une réalité de la vie sur une grande partie d’Internet. Leur laideur ruine les réseaux sociaux et les sites comme Reddit et Wikipedia.

Mais le contenu toxique semble différent selon le lieu, et l’identification de la toxicité en ligne est une première étape pour s’en débarrasser.

Une équipe de chercheurs de l’Institute for Software Research (ISR) de la School of Computer Science de l’Université Carnegie Mellon a récemment collaboré avec des collègues de l’Université Wesleyan pour faire un premier pas dans la compréhension de la toxicité sur des plateformes open source comme GitHub.

“Vous devez savoir à quoi ressemble cette toxicité afin de concevoir des outils pour la gérer”, a déclaré Courtney Miller, titulaire d’un doctorat. étudiant à l’ISR et auteur principal de l’article. “Et gérer cette toxicité peut conduire à des endroits plus sains, plus inclusifs, plus diversifiés et simplement meilleurs en général.”

Pour mieux comprendre à quoi ressemblait la toxicité dans la communauté open source, l’équipe a d’abord rassemblé du contenu toxique. Ils ont utilisé un détecteur de toxicité et de politesse développé pour une autre plate-forme pour scanner près de 28 millions de messages sur GitHub publiés entre mars et mai 2020. L’équipe a également recherché dans ces messages un “code de conduite” – une expression souvent invoquée lors d’une réaction à un contenu toxique – et recherché des problèmes verrouillés ou supprimés, ce qui peut également être un signe de toxicité.

Grâce à ce processus de curation, l’équipe a développé un ensemble de données final de 100 publications toxiques. Ils ont ensuite utilisé ces données pour étudier la nature de la toxicité. Était-ce insultant, intitulé, arrogant, trolling ou non professionnel ? Était-il dirigé contre le code lui-même, vers des personnes ou tout autre chose ?

“La toxicité est différente dans les communautés open source”, a déclaré Miller. “C’est plus contextuel, intitulé, subtil et passif-agressif.”

Environ la moitié seulement des messages toxiques identifiés par l’équipe contenaient des obscénités. D’autres provenaient d’utilisateurs exigeants du logiciel. Certains sont venus d’utilisateurs qui publient beaucoup de problèmes sur GitHub mais qui contribuent peu d’autre. Les commentaires qui commençaient à propos du code d’un logiciel sont devenus personnels. Aucun des messages n’a aidé à améliorer le logiciel open source ou la communauté.

“La pire. App. Jamais. S’il vous plaît, faites en sorte qu’elle ne soit pas la pire des applications. Merci”, a écrit un utilisateur dans un message inclus dans l’ensemble de données.

L’équipe a remarqué une tendance unique dans la façon dont les gens réagissaient à la toxicité sur les plateformes open source. Souvent, le développeur du projet s’est mis en quatre pour accommoder l’utilisateur ou résoudre les problèmes soulevés par le contenu toxique. Cela entraînait régulièrement de la frustration.

“Ils voulaient donner le bénéfice du doute et créer une solution”, a déclaré Miller. “Mais cela s’est avéré plutôt éprouvant.”

La réaction au document a été forte et positive, a déclaré Miller. Les développeurs open source et les membres de la communauté étaient ravis que cette recherche se déroule et que le comportement auquel ils étaient confrontés depuis longtemps soit enfin reconnu.

“Nous entendons depuis très longtemps les développeurs et les membres de la communauté parler de la toxicité malheureuse et presque enracinée de l’open source”, a déclaré Miller. “Les communautés open source sont un peu rudes sur les bords. Elles ont souvent une diversité et une rétention horribles, et il est important que nous commencions à aborder et à gérer la toxicité là-bas pour en faire un endroit plus inclusif et meilleur.”

Miller espère que la recherche créera une base pour des travaux plus nombreux et de meilleure qualité dans ce domaine. Son équipe s’est arrêtée avant de construire un détecteur de toxicité pour la communauté open-source, mais les bases ont été jetées.

“Il y a tellement de travail à faire dans cet espace”, a déclaré Miller. “J’espère vraiment que les gens verront cela, le développeront et continueront à faire avancer les choses.”

Rejoindre Miller sur le travail étaient Daniel Klug, un scientifique des systèmes dans l’ISR; les professeurs de l’ISR Bogdan Vasilescu et Christian Kästner ; et Sophie Cohen de l’Université Wesleyan. L’article de l’équipe a été présenté à la conférence internationale ACM/IEEE sur le génie logiciel le mois dernier à Pittsburgh.


La recherche montre que Twitter stimule la popularité et contribue aux logiciels open source


Plus d’information:
Article : Avez-vous manqué mon commentaire ou quoi ?” Comprendre la toxicité dans les discussions open-source

Fourni par l’Université Carnegie Mellon

Citation: Une étude révèle que la toxicité dans la communauté open source varie par rapport à d’autres forums Internet (2022, 28 juin) récupéré le 28 juin 2022 sur https://techxplore.com/news/2022-06-toxicity-open-source-varies-internet- forums.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.