Xbox signale une augmentation de 450% des sanctions des joueurs pour le contenu “vulgaire”

Xbox continue de réprimer les joueurs toxiques et abusifs sur ses systèmes, révélant qu’elle a vu une énorme augmentation des comptes réprimandés pour avoir publié du contenu “vulgaire”. Depuis l’amélioration de son système de modération, la société affirme qu’il y a eu une augmentation de 450% des «applications» de ce contenu, allant vraisemblablement de la suppression du message à la suspension totale des joueurs.


Cela survient également alors que Xbox élargit la définition de ce qu’elle classe comme contenu vulgaire, incluant désormais “les gestes offensants, le contenu sexualisé et l’humour grossier”. Xbox défend ces tactiques de modération accrues, affirmant qu’un tel contenu “nuisait à l’expérience de jeu de base” pour les autres utilisateurs, et que la plupart des joueurs qui ont publié ce matériel ont juste reçu un avertissement, pas complètement bannis de leurs comptes.

LA VIDÉO DE JEU DU JOURFAITES DÉFILER POUR CONTINUER AVEC LE CONTENU

En relation: L’abus de l’acteur d’Ada Wong est le dernier épisode de joueurs horribles

Ces informations proviennent du dernier rapport de transparence de Xbox sur ses pratiques de modération. Ici, la société explique comment elle essaie de jouer un rôle plus “proactif” dans l’application de ses termes et conditions, en utilisant l’IA pour repérer le matériel et le langage interdits sur ses services.

“Alors que les besoins des joueurs continuent d’évoluer, nos outils évoluent également”, lit-on dans le rapport. “La sécurité de nos joueurs est une priorité absolue – et pour faire progresser des expériences en ligne sûres, nous continuerons d’investir dans l’innovation, de travailler en étroite collaboration avec les partenaires de l’industrie et les régulateurs, et de recueillir les commentaires de la communauté.”

Master Chief et Fernando Esparza dans Halo Infinite

80 % des signalements de contenu ont été traités par une “modération proactive”, ce qui signifie qu’ils auraient pu être décidés par une IA ou un humain. Xbox ne discute pas des possibilités de faux rapports, bien qu’une grande partie de ce travail soit peut-être menée par une IA. Cependant, si une IA signale un contenu comme vulgaire, la prochaine étape serait qu’un humain le regarde quand même, juste pour s’assurer qu’il ne s’agit pas d’une erreur. On ne sait tout simplement pas combien de temps le joueur devra attendre pour que cela soit décidé.

Bien que nous n’ayons pas d’informations sur sa fiabilité, il est clair que Xbox est satisfaite des résultats. L’un des systèmes automatisés qu’il utilise, Community Sift, a connu “20 milliards d’interactions humaines” l’année dernière, de sorte que de nombreux rapports seraient passés par ce programme.

Il n’est pas surprenant de voir Xbox réprimer le contenu inapproprié sur ses plates-formes, étant donné la pression accrue sur l’industrie pour éradiquer le racisme, les discours de haine et l’extrémisme de la communauté des joueurs. Au cours du week-end, de nouvelles recherches ont suggéré que 50% des joueurs sont exposés à l’extrémisme lorsqu’ils jouent à des jeux en ligne. Il a également été constaté que le langage et l’iconographie racistes passaient à travers les filtres sur plusieurs jeux, allant de Call of Duty à Roblox. Dans l’ensemble, l’industrie a été invitée à faire plus pour empêcher les extrémistes d’utiliser les jeux comme outil de recrutement.

Suivant : Je ne peux plus rester éveillé à jouer à des jeux comme avant

Laisser un commentaire