Le DOJ sape Google dans une affaire devant la Cour suprême concernant le contenu des médias sociaux

Des gens passent devant un panneau publicitaire pour YouTube le 27 septembre 2019 à Berlin, en Allemagne.

Sean Gallup | Getty Images

Le ministère de la Justice a mis en garde la Cour suprême contre une interprétation trop large d’une loi protégeant les entreprises de médias sociaux de toute responsabilité pour ce que les utilisateurs publient sur leurs plateformes, une position qui sape de Google défense dans une affaire qui pourrait remodeler le rôle de la modération des contenus sur les plateformes numériques.

Dans un mémoire déposé mercredi sous la direction du solliciteur général par intérim du DOJ, Brian Fletcher, l’agence a déclaré que la Cour suprême devrait annuler une décision de la cour d’appel selon laquelle l’article 230 de la loi sur la décence des communications était protégé. Google d’être responsable en vertu de la loi antiterroriste américaine.

L’article 230 permet aux plateformes en ligne de s’engager dans une modération de contenu de bonne foi tout en les protégeant d’être tenues responsables des publications de leurs utilisateurs. Les plates-formes technologiques affirment qu’il s’agit d’une protection essentielle, en particulier pour les petites plates-formes qui pourraient autrement faire face à des batailles juridiques coûteuses, car la nature des plates-formes de médias sociaux rend difficile la capture rapide de chaque publication nuisible.

Mais la loi a été une question brûlante au Congrès, car les législateurs des deux côtés de l’allée soutiennent que le bouclier de responsabilité devrait être considérablement limité. Mais alors que de nombreux républicains pensent que les allocations de modération de contenu de la loi devraient être réduites pour réduire ce qu’ils prétendent être la censure des voix conservatrices, de nombreux démocrates contestent plutôt la façon dont la loi peut protéger les plateformes qui hébergent la désinformation et les discours de haine.

L’affaire de la Cour suprême connue sous le nom de Gonzalez c. Google a été intentée par des membres de la famille du citoyen américain Nohemi Gonzalez, qui a été tué dans un attentat terroriste de 2015 dont l’Etat islamique a revendiqué la responsabilité. La poursuite allègue que YouTube de Google n’a pas suffisamment empêché l’Etat islamique de distribuer du contenu sur le site de partage de vidéos pour soutenir ses efforts de propagande et de recrutement.

Les plaignants ont poursuivi Google en vertu de la loi antiterroriste de 1990, qui permet aux ressortissants américains blessés par le terrorisme de demander des dommages-intérêts. La loi a été mise à jour en 2016 pour ajouter une responsabilité civile secondaire à “toute personne qui aide et encourage, en fournissant sciemment une assistance substantielle” à “un acte de terrorisme international”.

La famille de Gonzalez affirme que YouTube n’a pas fait assez pour empêcher l’Etat islamique d’utiliser sa plateforme pour diffuser son message. Ils allèguent que même si YouTube a des politiques contre le contenu terroriste, il n’a pas surveillé adéquatement la plate-forme ni empêché ISIS de l’utiliser.

Les tribunaux de district et d’appel ont convenu que l’article 230 protège Google de toute responsabilité pour l’hébergement du contenu.

Bien qu’il n’ait pas pris position sur la question de savoir si Google devrait finalement être déclaré responsable, le DOJ a recommandé que la décision de la cour d’appel soit annulée et renvoyée au tribunal inférieur pour un examen plus approfondi. L’agence a fait valoir que si l’article 230 interdirait les réclamations des plaignants fondées sur le prétendu manquement de YouTube à bloquer les vidéos ISIS de son site, “la loi n’interdit pas les réclamations fondées sur les prétendues recommandations ciblées de YouTube sur le contenu ISIS”.

Le DOJ a fait valoir que la cour d’appel avait raison de conclure que l’article 230 protégeait YouTube de toute responsabilité pour avoir permis aux utilisateurs affiliés à l’Etat islamique de publier des vidéos, car il n’agissait pas en tant qu’éditeur en éditant ou en créant les vidéos. Mais, a-t-il déclaré, les affirmations concernant “l’utilisation par YouTube d’algorithmes et de fonctionnalités connexes pour recommander le contenu d’ISIS nécessitent une analyse différente”. Le DOJ a déclaré que la cour d’appel n’avait pas suffisamment examiné si les réclamations des plaignants pouvaient justifier une responsabilité en vertu de cette théorie et, par conséquent, la Cour suprême devrait renvoyer l’affaire devant la cour d’appel afin qu’elle puisse le faire.

“Au fil des ans, YouTube a investi dans la technologie, les équipes et les politiques pour identifier et supprimer les contenus extrémistes”, a déclaré le porte-parole de Google, José Castañeda, dans un communiqué. “Nous travaillons régulièrement avec les forces de l’ordre, d’autres plateformes et la société civile pour partager des renseignements et les meilleures pratiques. Saper l’article 230 rendrait plus difficile, et non plus facile, la lutte contre les contenus préjudiciables – rendant Internet moins sûr et moins utile pour nous tous. “

Chamber of Progress, un groupe industriel qui compte Google parmi ses partenaires commerciaux, a averti que le mémoire du DOJ constituait un dangereux précédent.

“La position du solliciteur général entraverait la capacité des plateformes à recommander des faits plutôt que des mensonges, de l’aide plutôt que du mal et de l’empathie plutôt que de la haine”, a déclaré Adam Kovacevich, PDG de Chamber of Progress, dans un communiqué. “Si la Cour suprême se prononce pour Gonzalez, les plateformes ne pourraient pas recommander d’aide à ceux qui envisagent de s’automutiler, des informations sur la santé reproductive pour les femmes qui envisagent d’avorter et des informations électorales précises pour les personnes qui souhaitent voter. Cela déclencherait un flot de poursuites judiciaires de trolls et de haineux mécontents des efforts des plateformes pour créer des communautés en ligne sûres et saines. »

REGARDER: Le désordre de la modération de contenu sur Facebook, Twitter, YouTube

Pourquoi la modération de contenu coûte des milliards et est si délicate pour Facebook, Twitter, YouTube et autres

Laisser un commentaire