Meta reavalia política contra desinformação
Unsplash/Dima Solomin
Meta reavalia política contra desinformação

A Meta, controladora do Facebook, Instagram e WhatsApp, anunciou nesta terça-feira (26) que está reavaliando sua política contra desinformação a respeito da Covid-19. Para isso, ela pede a orientação de seu Conselho de Supervisão.

O Conselho de Supervisão da Meta é um órgão independente financiado pela empresa composto por especialistas que auxilia a companhia a tomar decisões relacionadas à moderação de conteúdo. Agora, a Meta pede que o Conselho dê um parecer a respeito das medidas tomadas para conter a disseminação de desinformação relacionada à Covid-19.

De acordo com a empresa, com a evolução da pandemia e uma tentativa de volta à normalidade em diversos países, é possível que seja hora de reduzir a moderação de conteúdo quando o assunto é Covid-19.

Atualmente, a empresa exclui publicações que contenham qualquer uma das 80 alegações falsas proibidas sobre a doença. É proibido publicar no Facebook ou no Instagram conteúdos antivacina, contra o uso de máscaras ou contra o distanciamento social, por exemplo. A depender do parecer do Conselho de Supervisão, porém, isso pode mudar.

"Em muitos países, onde as taxas de vacinação são relativamente altas, a vida está voltando cada vez mais ao normal. Mas esse não é o caso em todos os lugares e o curso da pandemia continuará a variar significativamente em todo o mundo – especialmente em países com baixas taxas de vacinação e sistemas de saúde menos desenvolvidos. É importante que qualquer política implementada pela Meta seja apropriada para toda a gama de circunstâncias em que os países se encontram", diz Nick Clegg, presidente de assuntos globais da Meta, em uma publicação no blog da empresa.

Segundo a Meta, as medidas implementadas em relação à Covid-19 foram emergenciais e, agora, é hora de pensar em uma política de longo prazo e que possa contemplar também possíveis pandemias futuras. "Antes, a Meta só removia a desinformação quando parceiros locais com experiência relevante diziam que um determinado conteúdo poderia contribuir para um risco de dano físico iminente. A mudança significou que, pela primeira vez, removemos categorias inteiras de declarações falsas em escala mundial", afirma Clegg.

A empresa acredita que, neste momento, outras medidas possam ser mais adequadas do que a remoção de conteúdo. Entre elas, estão a diminuição da entrega de uma publicação, reduzindo seu alcance, e os rótulos que mostram informações oficiais sobre a pandemia de Covid-19. Ao The Verge, Clegg disse que a Meta está reavaliando essa política desde já porque pode demorar meses para que o Conselho libere um relatório de orientação.

    Mais Recentes

      Comentários

      Clique aqui e deixe seu comentário!