Pour faire face à cette tâche chimérique, Facebook vient d’ouvrir un centre de contrôle de contenu à Barcelone qui aura 800 modérateurs et a ouvert ses portes à un groupe de journalistes. “Notre travail est de créer un espace sûr pour tous les utilisateurs. C’est difficile, dans toutes les communautés, il y a du bon et du mauvais “, reconnaît le directeur des opérations communautaires de l’entreprise, David Geraghty, qui affirme que le système de contrôle du contenu de Facebook est l’un des plus sophistiqués au monde.

Un système d’intelligence

Le réseau social a deux moyens de détecter les contenus suspects : les rapports des utilisateurs et un système d’intelligence artificielle ;apprentissage automatique qui les identifie automatiquement. Avant nous étions plus réactifs, maintenant nous sommes plus proactifs, reconnaît-il. Ce dernier est, par exemple, responsable de la détection de 99% du contenu terroriste que l’on tente de distribuer sur le net avant sa publication, bien qu’un humain ait toujours le dernier mot.

La combinaison de la technologie et des personnes est le meilleur outil, admet Geraghty. 2018 a été le  annus horribilis du réseau : d’abord Cambridge Analityca, puis l’enquête sur l’ingérence russe dans les élections américaines a porté sur le réseau et, après plusieurs démissions de dirigeants, une enquête du New York Times a révélé que la société avait payé une société pour créer de fausses nouvelles contre ses critiques.

Critique sur plusieurs fronts

En parallèle, Facebook a reçu de multiples critiques pour la prolifération du discours raciste et violent sur sa plate-forme. Dans le cas des Rohinyá au Myanmar, Mark Zuckerberg s’est excusé et a reconnu que les Rohinyás n’avaient pas fait assez pour mettre un frein au contenu violent contre cette minorité musulmane. L’investissement de l’entreprise dans le contrôle du contenu a considérablement augmenté, reconnaît Geraghty.

Notre politique en matière de discours haineux est la même dans tous les pays et s’applique à tous, y compris aux personnalités publiques.

Barcelona en est la preuve, plusieurs étages d’un bâtiment central où les travailleurs bénéficient d’un soutien psychologique 24h/24 – chaque ordinateur est muni de stickers avec une assistance téléphonique – et tous les avantages sont présents, comme les espaces de repos et les cours de relaxation. La modération de contenu n’est pas un travail de bureau normal et n’est pas non plus pour tout le monde ; parfois les contrôleurs doivent voir des images qui peuvent générer beaucoup de stress comme la violence graphique, les abus envers les enfants ou les contenus terroristes, explique Ulf Herbrechter, responsable du CCC, la société qui gère le centre.

L’équipe de contrôle du contenu Facebook

L’équipe de contrôle du contenu Facebook dépasse 30.000 employés dans le monde – dont la moitié sont animateurs – une partie est consacrée régulièrement à réviser et modifier la vaste politique du contenu de la plate-forme. Le réseau tente de maintenir l’objectivité et demande à ses modérateurs de baser leurs décisions sur les normes reflétées dans la politique de contenu de l’entreprise, et non sur des opinions personnelles.

La controverse est centrée sur le discours de haine et l’utilisation de la plate-forme pour l’avancement du populisme dans le processus électoral. Selon les dernières données publiques de Facebook au cours des trois premiers trimestres de l’année, l’entreprise a agi contre environ 8 millions de contenus pour incitation à la haine, bien que l’entreprise ne fournit pas de données sur la prévalence de ces hypothèses et affirme que les données sont provisoires. Notre politique en matière de discours de haine est la même dans tous les pays et s’applique à tous, y compris aux personnalités publiques, que vous soyez Bolsonaro, Trump ou un citoyen anonyme, explique Siobhan Cummiskey, responsable de la politique européenne de contenu de l’entreprise.

You may also like

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici