Panier

Modération des contenus : la « cour suprême » de Facebook conteste des décisions du réseau social – Le Monde

A Menlo Park, en Californie, au siège de Facebook, en novembre 2016.

La « cour suprême » de Facebook a, jeudi 28 janvier, contredit le réseau social dans quatre de ses cinq premières décisions. Les contenus concernés, dont le retrait par la plate-forme avait été contesté par leur auteur, vont donc être remis en ligne. « C’est la première fois que Facebook est dédit par une entité indépendante », a déclaré Helle Thorning-Schmidt, l’une des coprésidentes de cette entité extérieure créée par Facebook pour la conseiller sur la modération de contenus. « Nous voulons apporter une supervision nécessaire et commencer à refaçonner les politiques de Facebook sur le long terme », a ajouté l’ex-première ministre du Danemark, l’une des quarante membres – ex-politiques, juristes ou militants d’ONG – de cette organisation officiellement appelée « conseil de surveillance ».

Lire aussi La « cour suprême » de Facebook a (enfin) sélectionné de premiers cas à trancher

Ces décisions étaient très attendues, car cet ovni juridique y joue une part de sa crédibilité. Et parce que Facebook l’a sollicité pour trancher le cas sensible de Donald Trump, dont le compte a été suspendu après l’invasion violente du Capitole, le 6 janvier. La cour se prononcera d’ici à avril.

Lire aussi Suspension du compte de Donald Trump : Facebook demande à sa « cour suprême » de se prononcer

Dans le détail, le conseil a demandé à Facebook de republier un contenu en français sur le Covid-19. L’utilisateur y critiquait l’Agence nationale de sécurité du médicament et des produits de santé pour avoir refusé d’autoriser l’hydroxychloroquine, alors que ce « médicament inoffensif » était utilisé ailleurs pour sauver des vies, rapporte le conseil. Le billet avait été dépublié, car la politique de Facebook sur la désinformation prévoit un retrait en cas de « risque de danger physique imminent ». Selon le réseau social, un tel contenu pouvait pousser les utilisateurs à s’automédiquer ou à refuser de suivre des consignes médicales. La cour a objecté que l’utilisateur « s’opposait à une politique publique », sans « encourager » à prendre un médicament. Elle a enjoint à Facebook de clarifier sa politique et de recourir à des solutions moins intrusives, comme l’ajout d’un avertissement.

Une cour contestée

Dans un autre cas, la cour a regretté que les algorithmes de Facebook aient retiré un contenu d’Instagram contenant plusieurs photos de seins, sans comprendre qu’il s’agissait d’une campagne contre le cancer. « S’il y avait eu une supervision humaine des décisions de modération, cela ne serait pas arrivé », reproche Mme Thorning-Schmidt. Le conseil a aussi jugé qu’un contenu publié en Birmanie sur les musulmans était « offensant », mais pas « haineux ». Ou qu’un utilisateur avait le droit de citer le nazi Joseph Goebbels – sans le glorifier – pour critiquer la politique de Donald Trump. En général, le conseil a invité Facebook à être plus « transparent ».

Article réservé à nos abonnés Lire aussi Le vertigineux projet de « cour suprême » de Facebook sur la modération des contenus

Cette « cour suprême », qui ajoute un contrepoids aux décisions de Facebook, reste contestée, notamment parce qu’elle ne peut s’autosaisir, ni traiter de questions comme l’amplification des contenus par les algorithmes. Ses dirigeants ont toutefois annoncé qu’ils pourront bientôt s’emparer de cas de contenus restés en ligne. Et ils auront bientôt à trancher un des dilemmes les plus débattus de l’histoire de la modération des réseaux sociaux : Facebook devait-il suspendre Donald Trump ?

Article réservé à nos abonnés Lire aussi La folle semaine où les réseaux sociaux ont lâché Donald Trump
Auteur : Asselli Icône 2 vérifiée
Dites-nous quelque chose sur vous-même.

Participez !

Commentaires

Aucun commentaire pour l’instant
Like&Co

GRATUIT
VOIR