Un tribunal kenyan ouvre la voie à un procès alléguant que Facebook a joué un rôle dans le conflit du Tigré en Éthiopie

Les Éthiopiens qui poursuivent Meta pour ne pas avoir modéré de manière adéquate le contenu qui a amplifié la violence qui a fait plus d’un demi-million de morts pendant la guerre du Tigré ont reçu le feu vert pour servir le géant des médias sociaux en dehors du Kenya. Il s’agit de la dernière affaire qui vise à contraindre Facebook à cesser d’amplifier les messages violents, haineux et incitant à la haine.

Un tribunal kenyan a autorisé jeudi les pétitionnaires à servir Meta en Californie, aux États-Unis, après avoir échoué à retrouver le bureau du géant des médias sociaux localement. Il est apparu que même si Meta a des activités commerciales au Kenya, elle n’a pas de bureau physique, car ses employés locaux travaillent à distance.

La décision jette les bases du début d’un procès intenté en décembre dernier par le groupe kényan de défense des droits Katiba Institute et les chercheurs éthiopiens Fisseha Tekle et Abrham Meareg. Le père de Meareg, le professeur Meareg Amare Abrha, a été tué pendant la guerre du Tigré après que des messages sur Facebook aient doxé et appelé à la violence contre lui, selon le procès.

Les pétitionnaires cherchent à obliger Meta à mettre fin à la haine virale sur Facebook, à accélérer l’examen du contenu au centre de modération au Kenya et à créer un fonds d’indemnisation de 1,6 milliard de dollars.

Les pétitionnaires allèguent que l’algorithme de Facebook a amplifié les messages haineux et incitatifs qui ont attiré plus d’interactions et maintenu les utilisateurs connectés plus longtemps.

Ils affirment que Facebook a “sous-investi” dans l’examen du contenu humain au hub au Kenya, risquant des vies en ignorant, en rejetant ou en agissant avec lenteur pour supprimer les messages qui violaient également ses normes communautaires.

Meareg a déclaré que sa famille avait une expérience directe de la façon dont une modération de contenu défectueuse pouvait mettre des vies en danger et briser des familles.

Il affirme que son père a été assassiné après que Meta n’ait pas donné suite à des demandes répétées de supprimer des messages qui le ciblaient ainsi que d’autres Tigréens, alors que les appels au massacre contre le groupe ethnique se sont répandus en ligne et hors ligne. La guerre du Tigré, qui a duré deux ans, a éclaté en novembre 2020 après un affrontement entre l’armée éthiopienne et les forces du Tigré, faisant 600 000 morts.

“Mon père a été tué parce que des messages publiés sur Facebook l’ont identifié, l’ont accusé à tort, ont divulgué l’adresse de son domicile et appelé à sa mort”, a déclaré Meareg, un ancien doctorant, ajoutant qu’il avait été contraint de fuir le pays et de chercher l’asile aux États-Unis après la mort de son père.

« Le cas de mon père n’est pas un cas isolé. Au moment des messages et de sa mort, Facebook était saturé de messages haineux, incitatifs et dangereux… de nombreuses autres tragédies comme la nôtre ont eu lieu », a-t-il déclaré.

Meta a refusé de commenter.

Meareg dit qu’il a signalé les messages qu’il a rencontrés, mais ses rapports ont été soit rejetés, soit ignorés. Il affirme avoir signalé plusieurs messages en 2021, dont un contenant des cadavres, et certains de ces messages étaient toujours sur le site social au moment où il est allé au tribunal en décembre dernier.

Il a critiqué l’examen du contenu de Facebook, affirmant que le hub au Kenya ne comptait que 25 modérateurs responsables du contenu en amharique, tigrinya et oromo, ce qui excluait 82 autres langues sans personnel à modérer.

Meta a précédemment déclaré à TechCrunch qu’il employait des équipes et de la technologie pour l’aider à supprimer les discours de haine et l’incitation, et qu’il avait des partenaires et du personnel ayant des connaissances locales pour l’aider à développer des méthodes pour détecter les contenus en infraction.

“Une faille a été laissée se développer au sein de Facebook, le transformant en une arme pour propager la haine, la violence et même le génocide”, a déclaré Martha Dark, directrice de Foxglove, une ONG de justice technologique qui soutient l’affaire. “Meta pourrait prendre des mesures concrètes, aujourd’hui, pour mettre fin à la propagation de la haine sur Facebook.”

Ce n’est pas la première fois que Meta est accusé d’alimenter la violence en Éthiopie. La lanceuse d’alerte Frances Haugen l’a précédemment accusée d’avoir “littéralement attisé la violence ethnique” en Éthiopie, et une enquête de Global Witness a également noté que Facebook ne parvenait pas à détecter les discours de haine dans la langue principale de l’Éthiopie.

Actuellement, les plateformes de médias sociaux, y compris Facebook, restent bloquées en Éthiopie depuis début février après que les plans de l’État visant à diviser l’Église orthodoxe éthiopienne Tewhado ont provoqué des manifestations antigouvernementales.

Ajoutant aux problèmes de Meta au Kenya

Meta fait face à trois procès au Kenya.

La société et son partenaire de révision de contenu en Afrique subsaharienne, Sama, ont été poursuivis au Kenya en mai dernier pour exploitation et antisyndicalisme par Daniel Motaung, un ancien modérateur de contenu.

Motaung a affirmé avoir été licencié par Sama pour avoir organisé une grève en 2019 visant à syndiquer les employés de Sama. Il poursuivait Meta et Sama pour travail forcé, exploitation, traite des êtres humains, relations de travail déloyales, antisyndical et incapacité à fournir une santé mentale et un soutien psychosocial “adéquats”.

Meta a cherché à faire radier son nom du procès, affirmant que Motaung n’était pas son employé et que le tribunal kenyan n’avait aucune compétence à son égard. Cependant, il n’a pas réussi à arrêter le procès après que le tribunal a statué qu’il avait une affaire à répondre, car certains aspects de la façon dont l’entreprise opère dans le pays la rendent responsable. Le géant des médias sociaux a fait appel de la décision du tribunal.

Plus tôt ce mois-ci, Meta a été poursuivi aux côtés de Sama et d’un autre partenaire de révision de contenu, Majorel, par 183 modérateurs de contenu qui ont allégué qu’ils avaient été licenciés illégalement et mis sur liste noire. Les modérateurs ont affirmé qu’ils avaient été licenciés illégalement par Sama après la suppression de son service de révision de contenu, et que Meta avait demandé à son nouveau partenaire basé au Luxembourg, Majorel, de mettre sur liste noire les anciens modérateurs de contenu de Sama.

Meta a également demandé à être radié de cette affaire, mais la semaine dernière, le tribunal kenyan a déclaré qu’il était compétent pour les différends employeur-employé et “les questions de licenciement illégal et injuste présumé pour motif de licenciement” et qu’il avait le pouvoir ” pour faire respecter les allégations de violation des droits de l’homme et des libertés fondamentales » par Meta, Sama et Majorel.

rewrite this content and keep HTML tags

Les Éthiopiens qui poursuivent Meta pour ne pas avoir modéré de manière adéquate le contenu qui a amplifié la violence qui a fait plus d’un demi-million de morts pendant la guerre du Tigré ont reçu le feu vert pour servir le géant des médias sociaux en dehors du Kenya. Il s’agit de la dernière affaire qui vise à contraindre Facebook à cesser d’amplifier les messages violents, haineux et incitant à la haine.

Un tribunal kenyan a autorisé jeudi les pétitionnaires à servir Meta en Californie, aux États-Unis, après avoir échoué à retrouver le bureau du géant des médias sociaux localement. Il est apparu que même si Meta a des activités commerciales au Kenya, elle n’a pas de bureau physique, car ses employés locaux travaillent à distance.

La décision jette les bases du début d’un procès intenté en décembre dernier par le groupe kényan de défense des droits Katiba Institute et les chercheurs éthiopiens Fisseha Tekle et Abrham Meareg. Le père de Meareg, le professeur Meareg Amare Abrha, a été tué pendant la guerre du Tigré après que des messages sur Facebook aient doxé et appelé à la violence contre lui, selon le procès.

Les pétitionnaires cherchent à obliger Meta à mettre fin à la haine virale sur Facebook, à accélérer l’examen du contenu au centre de modération au Kenya et à créer un fonds d’indemnisation de 1,6 milliard de dollars.

Les pétitionnaires allèguent que l’algorithme de Facebook a amplifié les messages haineux et incitatifs qui ont attiré plus d’interactions et maintenu les utilisateurs connectés plus longtemps.

Ils affirment que Facebook a “sous-investi” dans l’examen du contenu humain au hub au Kenya, risquant des vies en ignorant, en rejetant ou en agissant avec lenteur pour supprimer les messages qui violaient également ses normes communautaires.

Meareg a déclaré que sa famille avait une expérience directe de la façon dont une modération de contenu défectueuse pouvait mettre des vies en danger et briser des familles.

Il affirme que son père a été assassiné après que Meta n’ait pas donné suite à des demandes répétées de supprimer des messages qui le ciblaient ainsi que d’autres Tigréens, alors que les appels au massacre contre le groupe ethnique se sont répandus en ligne et hors ligne. La guerre du Tigré, qui a duré deux ans, a éclaté en novembre 2020 après un affrontement entre l’armée éthiopienne et les forces du Tigré, faisant 600 000 morts.

“Mon père a été tué parce que des messages publiés sur Facebook l’ont identifié, l’ont accusé à tort, ont divulgué l’adresse de son domicile et appelé à sa mort”, a déclaré Meareg, un ancien doctorant, ajoutant qu’il avait été contraint de fuir le pays et de chercher l’asile aux États-Unis après la mort de son père.

« Le cas de mon père n’est pas un cas isolé. Au moment des messages et de sa mort, Facebook était saturé de messages haineux, incitatifs et dangereux… de nombreuses autres tragédies comme la nôtre ont eu lieu », a-t-il déclaré.

Meta a refusé de commenter.

Meareg dit qu’il a signalé les messages qu’il a rencontrés, mais ses rapports ont été soit rejetés, soit ignorés. Il affirme avoir signalé plusieurs messages en 2021, dont un contenant des cadavres, et certains de ces messages étaient toujours sur le site social au moment où il est allé au tribunal en décembre dernier.

Il a critiqué l’examen du contenu de Facebook, affirmant que le hub au Kenya ne comptait que 25 modérateurs responsables du contenu en amharique, tigrinya et oromo, ce qui excluait 82 autres langues sans personnel à modérer.

Meta a précédemment déclaré à TechCrunch qu’il employait des équipes et de la technologie pour l’aider à supprimer les discours de haine et l’incitation, et qu’il avait des partenaires et du personnel ayant des connaissances locales pour l’aider à développer des méthodes pour détecter les contenus en infraction.

“Une faille a été laissée se développer au sein de Facebook, le transformant en une arme pour propager la haine, la violence et même le génocide”, a déclaré Martha Dark, directrice de Foxglove, une ONG de justice technologique qui soutient l’affaire. “Meta pourrait prendre des mesures concrètes, aujourd’hui, pour mettre fin à la propagation de la haine sur Facebook.”

Ce n’est pas la première fois que Meta est accusé d’alimenter la violence en Éthiopie. La lanceuse d’alerte Frances Haugen l’a précédemment accusée d’avoir “littéralement attisé la violence ethnique” en Éthiopie, et une enquête de Global Witness a également noté que Facebook ne parvenait pas à détecter les discours de haine dans la langue principale de l’Éthiopie.

Actuellement, les plateformes de médias sociaux, y compris Facebook, restent bloquées en Éthiopie depuis début février après que les plans de l’État visant à diviser l’Église orthodoxe éthiopienne Tewhado ont provoqué des manifestations antigouvernementales.

Ajoutant aux problèmes de Meta au Kenya

Meta fait face à trois procès au Kenya.

La société et son partenaire de révision de contenu en Afrique subsaharienne, Sama, ont été poursuivis au Kenya en mai dernier pour exploitation et antisyndicalisme par Daniel Motaung, un ancien modérateur de contenu.

Motaung a affirmé avoir été licencié par Sama pour avoir organisé une grève en 2019 visant à syndiquer les employés de Sama. Il poursuivait Meta et Sama pour travail forcé, exploitation, traite des êtres humains, relations de travail déloyales, antisyndical et incapacité à fournir une santé mentale et un soutien psychosocial “adéquats”.

Meta a cherché à faire radier son nom du procès, affirmant que Motaung n’était pas son employé et que le tribunal kenyan n’avait aucune compétence à son égard. Cependant, il n’a pas réussi à arrêter le procès après que le tribunal a statué qu’il avait une affaire à répondre, car certains aspects de la façon dont l’entreprise opère dans le pays la rendent responsable. Le géant des médias sociaux a fait appel de la décision du tribunal.

Plus tôt ce mois-ci, Meta a été poursuivi aux côtés de Sama et d’un autre partenaire de révision de contenu, Majorel, par 183 modérateurs de contenu qui ont allégué qu’ils avaient été licenciés illégalement et mis sur liste noire. Les modérateurs ont affirmé qu’ils avaient été licenciés illégalement par Sama après la suppression de son service de révision de contenu, et que Meta avait demandé à son nouveau partenaire basé au Luxembourg, Majorel, de mettre sur liste noire les anciens modérateurs de contenu de Sama.

Meta a également demandé à être radié de cette affaire, mais la semaine dernière, le tribunal kenyan a déclaré qu’il était compétent pour les différends employeur-employé et “les questions de licenciement illégal et injuste présumé pour motif de licenciement” et qu’il avait le pouvoir ” pour faire respecter les allégations de violation des droits de l’homme et des libertés fondamentales » par Meta, Sama et Majorel.

Laisser un commentaire