O Facebook possui um sistema de moderação de conteúdo que podemos chamar de híbrido: com detecção automática ou por agentes humanos. Esse trabalho é bastante importante para manter uma rede social ativa. Isso porque, se a função não existisse, conteúdos como spam, bullying, crimes de todos os tipos e vídeos perturbadores tomariam conta da plataforma.
Leia também:
Facebook paga indenização de US$52 mi a moderadores com transtornos psicológicos
Pode vetar Zuckerberg: nova 'Suprema Corte' do Facebook tem brasileiro na lista
Facebook libera exportação de mídia para o Google Fotos; veja como ativar
Atualmente, estima-se que 15 mil pessoas realizem esse trabalho para o Facebook. No entanto, esse total acaba não sendo suficiente para dar conta das milhões de publicações diárias. Por isso, segundo um estudo do Stern Center for Business and Human Rights, da Universidade de Nova York, a rede social deveria começar a pensar em expandir o número de pessoas envolvidas na área e tratá-las melhor.
Você viu?
De acordo com Paul M. Barrett, autor do estudo, a maioria dos funcionários que exercem a função nem mesmo trabalha para o Facebook diretamente. A tarefa é delegada para terceiros que empregam trabalhadores temporários para revisar centenas de postagens por dia, muitas das quais são profundamente traumatizantes.
"A moderação do conteúdo não é como outras funções terceirizadas, como cozinhar ou limpar", diz Barrett. "É uma função central do negócio das mídias sociais , e isso torna um tanto estranho que seja tratado como se fosse periférico ou problema de outra pessoa", completa.
Atividade falha
Apesar da adoção de ferramentas de Inteligência Artificial (IA) para triagem de mensagens, o próprio Facebook admite uma taxa de erro de 10% na sinalização incorreta de postagens que devem ser retiradas ou mantidas.
Em uma conta simples, que indica três milhões de postagens moderadas por dia, há 300 mil erros diários. Alguns deles, inclusive, podem ser fatais. Como o ocorrido entre 2016 e 2017, período em que membros das forças armadas de Mianmar usaram o Facebook para incitar o genocídio contra a minoria muçulmana Rohingya. Mais tarde, a empresa admitiu falhas em impor políticas de proibição de discursos de ódio.
Para evitar todos esses problemas, Barrett diz que chegou a hora de a rede social tratar a moderação de conteúdo como parte central de seus negócios. Ele ainda informa que isso ajudaria a evitar erros catastróficos como os cometidos em Mianmar.
Recomendações
Além de expor esses erros, o estudo faz oito recomendações para que o Facebook possa melhorar sua gestão de moderação de conteúdo :
- Parar de terceirizar a moderação de conteúdo;
- Duplicar o número de moderadores para melhorar a qualidade da revisão de conteúdo;
- Contratar alguém para supervisionar o conteúdo e a verificação de fatos;
- Expandir ainda mais a moderação em locais como Ásia e África;
- Fornecer a todos os moderadores atendimento médico de qualidade, incluindo acesso a psiquiatras;
- Patrocinar pesquisas sobre os riscos de saúde decorrentes da moderação de conteúdo;
- Se adequar às regulamentações governamentais de conteúdo prejudicial;
- Expandir significativamente a verificação de fatos para desmascarar informações falsas.
As propostas são ambiciosas, mas viáveis. Como exemplo que ilustra essa afirmação, Barrett cita a crise do novo coronavírus (Sars-Cov-2). O Facebook anunciou recentemente que, como muitos moderadores de conteúdo não poderiam entrar nos escritórios da empresa, a responsabilidade passaria para os funcionários internos.
"Acho muito revelador que, em um momento de crise, Zuckerberg confinou aos seus funcionários de tempo integral a tarefa [de moderação]", diz. "Talvez isso seja a base para que o Facebook possa ajustar de maneira saudável como vê a moderação de conteúdo", finaliza.