Est-il même possible de réguler efficacement Facebook ? Plusieurs tentatives ont abouti au même résultat

Facebook

Crédit : Unsplash/CC0 Domaine public

Le récent avertissement du gouvernement australien à Facebook concernant la désinformation n’est que la dernière salve dans la bataille apparemment constante pour obliger le géant des médias sociaux à rendre compte du contenu publié sur sa plate-forme.

Cela est arrivé la même semaine que le Sénat américain a entendu un témoignage de dénonciation dans lequel l’ancienne dirigeante de Facebook, Frances Haugen, a affirmé que la société était au courant des conséquences néfastes pour ses utilisateurs mais a choisi de ne pas agir.

Les gouvernements du monde entier s’efforcent depuis des années de responsabiliser davantage les géants des médias sociaux, à la fois en termes de qualité des informations qu’ils hébergent et d’utilisation des données des utilisateurs dans le cadre de leurs modèles commerciaux.

La loi sur la sécurité en ligne du gouvernement australien entrera en vigueur en janvier 2022, donnant au commissaire à la sécurité électronique des pouvoirs sans précédent pour réprimer les contenus abusifs ou violents, ou les images sexuelles publiées sans consentement.

Mais même en cas de succès, cette législation ne traitera qu’une petite partie des questions qui nécessitent une réglementation. Sur bon nombre de ces questions, les plateformes de médias sociaux ont tenté de s’autoréglementer plutôt que de se soumettre à la législation. Mais qu’il s’agisse de législation ou d’autoréglementation, les expériences passées n’engendrent pas une grande confiance dans le fait que les plateformes technologiques peuvent être réglementées avec succès et que la réglementation peut être mise en œuvre facilement.

Notre recherche a examiné les tentatives précédentes de réglementer les géants de la technologie en Australie. Nous avons analysé 269 articles de presse et 282 documents politiques et rapports de l’industrie publiés de 2015 à 2021. Discutons de quelques études de cas pertinentes.

1. Annonces et actualités

En 2019, l’enquête de la Commission australienne de la concurrence et de la consommation (ACCC) sur les plateformes numériques a qualifié les algorithmes de Facebook, en particulier ceux qui déterminent le positionnement de la publicité sur les pages Facebook, d' »opaques ». Il a conclu que les entreprises médiatiques avaient besoin de plus d’assurance quant à l’utilisation de leur contenu.

Facebook s’est d’abord félicité de l’enquête, mais s’y est ensuite opposé publiquement (avec Google) lorsque le gouvernement a fait valoir que les problèmes liés au pouvoir de marché substantiel de Facebook dans la publicité display, et la domination de Facebook et de Google sur le contenu d’information généré par les sociétés de médias, étaient trop importants pour être laissé aux entreprises elles-mêmes.

Facebook a fait valoir qu’il n’y avait aucune preuve d’un déséquilibre du pouvoir de négociation entre lui et les sociétés de médias d’information, ajoutant qu’il n’aurait d’autre choix que de retirer les services d’information en Australie s’il était contraint de payer les éditeurs pour l’hébergement de leur contenu. L’impasse a entraîné le tristement célèbre embargo d’une semaine de Facebook sur les nouvelles australiennes.

Le Code de négociation des médias révisé et amendé a été adopté par le Parlement en février. Le gouvernement et Facebook ont ​​tous deux déclaré la victoire, le premier ayant réussi à faire adopter sa législation, et le second a fini par conclure ses propres affaires avec les éditeurs de nouvelles sans avoir à être légalement tenu au code.

2. Discours de haine et terrorisme

En 2015, pour lutter contre l’extrémisme violent sur les réseaux sociaux, le gouvernement australien a d’abord travaillé avec le géant de la technologie pour développer des solutions conjointes d’IA afin d’améliorer les processus techniques d’identification de contenu pour lutter contre l’extrémisme violent.

Cette solution volontaire a fonctionné à merveille, jusqu’à ce qu’elle ne fonctionne pas. En mars 2019, des fusillades massives dans des mosquées de Christchurch ont été diffusées en direct sur Facebook par un terroriste suprémaciste blanc né en Australie, et les enregistrements ont ensuite circulé sur Internet.

Cela a mis en lumière l’incapacité des algorithmes d’intelligence artificielle de Facebook à détecter et à supprimer les images en direct de la prise de vue et la vitesse à laquelle elles ont été partagées sur la plate-forme.

Le gouvernement australien a répondu en 2019 en modifiant le Code pénal pour exiger des plateformes de médias sociaux qu’elles suppriment les contenus odieux ou violents « dans un délai raisonnable » et, le cas échéant, les renvoient à la police fédérale australienne.

Qu’avons-nous appris ?

Ces deux exemples, bien que remarquablement différents, se sont tous deux déroulés de manière similaire : un premier dialogue dans lequel Facebook propose une solution interne impliquant ses propres algorithmes, avant un virage ultérieur vers une réglementation gouvernementale obligatoire, qui se heurte à des résistances ou à des marchandages (ou les deux) de Facebook, et le résultat final qui est une législation fragmentaire qui est soit édulcorée, soit ne couvre qu’un sous-ensemble de types spécifiques de dommages.

Il y a plusieurs problèmes évidents avec cela. La première est que seuls les géants de la technologie eux-mêmes savent comment fonctionnent leurs algorithmes, il est donc difficile pour les régulateurs de les superviser correctement.

Ensuite, il y a le fait que la législation s’applique généralement au niveau national, mais Facebook est une entreprise mondiale avec des milliards d’utilisateurs à travers le monde et une plate-forme qui s’intègre dans notre vie quotidienne de toutes sortes de manières.

Comment sortir de l’impasse ? Une option consiste à élaborer des réglementations par des organismes indépendants nommés par les gouvernements et les géants de la technologie pour diriger le programme de corégulation à l’échelle mondiale. Mais se fier uniquement à la réglementation pour guider le comportement des géants de la technologie contre les abus potentiels pourrait ne pas être suffisant. Il existe également un besoin d’autodiscipline et d’une gouvernance d’entreprise appropriée, potentiellement mise en œuvre par ces organismes indépendants.


L’Australie veut que Facebook soit tenu responsable des commentaires anonymes


Fourni par La Conversation

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lire l’article original.La conversation

Citation: Est-il même possible de réguler Facebook efficacement ? Plusieurs tentatives ont conduit au même résultat (2021, 20 octobre) récupéré le 20 octobre 2021 à partir de https://techxplore.com/news/2021-10-facebook-effectively-multiple-outcome.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.