Facebook défend la décision de ramener les modérateurs de contenu dans les bureaux malgré les risques Covid-19
Share
Les dirigeants de Facebook ont défendu jeudi leur décision de ramener certains modérateurs de contenu dans leurs bureaux au milieu de la pandémie de coronavirus, un jour après que plus de 200 entrepreneurs ont publié une lettre ouverte exhortant l’entreprise à les laisser travailler à domicile. Le vice-président de l’intégrité de Facebook, Guy Rosen, a déclaré que l’entreprise avait besoin de certains de ses contenus les plus sensibles examinés à partir d’un bureau et a pris des mesures pour rendre ces environnements sûrs.
“Nous ne sommes pas en mesure d’acheminer certains des contenus les plus sensibles et les plus graphiques à des évaluateurs externalisés à domicile”, a déclaré Rosen lors d’un appel de presse. «C’est un contenu vraiment sensible.
Ce n’est pas quelque chose que vous voulez que les gens examinent depuis chez eux avec leur famille. » Dans leur lettre adressée au PDG Mark Zuckerberg, les modérateurs ont affirmé que Facebook risquait inutilement leur vie. Les modérateurs exigent que Facebook maximise le travail à domicile, offre une prime de risque et met fin à l’externalisation.
Lorsqu’on lui a demandé quelle partie de la main-d’œuvre chargée de la révision du contenu de l’entreprise était retournée dans ses bureaux, Rosen a refusé de donner un chiffre précis, mais a déclaré que la plupart de ces travailleurs travaillaient toujours à domicile. «Nous avons toujours eu des employés occupant des postes critiques qui devaient entrer dans certaines de nos installations mondiales, ce sont des choses comme des centres de données, etc., et nous avons des normes de sécurité très strictes que nous utilisons sur ces sites», a déclaré Rosen .
Les autres rôles qui sont également revenus dans les bureaux incluent les équipes de sécurité et les ingénieurs en matériel, a déclaré Rosen. Parmi les mesures de santé et de sécurité en place figurent une capacité considérablement réduite, une distance physique, des contrôles de température obligatoires, des masques obligatoires, des nettoyages en profondeur quotidiens, une désinfection des mains et des changements de filtre à air, a déclaré Rosen.
La société a également recruté des employés à temps plein pour aider à la révision du contenu, leur demandant de gérer un contenu plus sensible, a déclaré Rosen.
«Les installations respectent ou dépassent les directives sur un espace de travail sûr», a déclaré Rosen. La société a également répondu à la critique de la lettre ouverte selon laquelle le logiciel d’IA de Facebook n’est pas à la hauteur de la tâche de détecter tous les types de contenu qui enfreignent les politiques de l’entreprise.
«Nos investissements dans l’IA nous aident à détecter et à supprimer ce contenu pour assurer la sécurité des gens», a déclaré Rosen. «La raison … nous renvoyons certains travailleurs dans les bureaux est précisément pour nous assurer que nous pouvons avoir cet équilibre entre les personnes et l’IA travaillant dans ces domaines.»
De plus, la société a révélé jeudi pour la première fois la quantité de contenu de discours haineux qu’elle avait supprimé de Facebook et Instagram. Au cours du troisième trimestre, la société a supprimé 22,1 millions de discours de haine. Au total, 0,11% du contenu consulté sur Facebook était un discours de haine.
La société a également fourni une mise à jour sur ses efforts pour modérer le contenu lié aux élections américaines et à Covid-19. Facebook a également déclaré que depuis mars, il avait supprimé plus de 265 000 éléments de contenu aux États-Unis de Facebook et Instagram pour avoir enfreint les politiques d’interférence électorale de l’entreprise.
Rosen a déclaré que 140 millions de personnes ont visité le centre d’information sur les votes de la société, dont 33 millions l’ont inscrit le jour du scrutin.
La société a également apposé des étiquettes d’avertissement sur plus de 180 millions de fausses informations démystifiées. Entre mars et octobre, Facebook a supprimé plus de 12 millions de contenus de Facebook et Instagram qui contenaient des informations erronées liées à Covid qui pourraient entraîner des dommages physiques imminents. Cela inclut le contenu lié aux remèdes exagérés ou aux fausses mesures préventives.
La société a également affiché des avertissements sur environ 167 millions de contenus contenant des informations erronées sur Covid-19.
Rosen a déclaré que 95% des utilisateurs ne cliquent pas pour afficher le contenu couvert par un écran d’avertissement.
AlgérieMonde.Live