Brasil Econômico

O Facebook pretende contratar três mil novos funcionários nos próximos meses para monitorar a publicação de conteúdos inapropriados na rede social. Em post publicado nesta quarta-feira (3), o CEO e fundador da plataforma, Mark Zuckerberg, disse que o objetivo é analisar os milhões de relatos recebidos toda a semana e melhorar os procedimentos para remover vídeos violentos mais rapidamente.

Leia também: Facebook altera exibição de artigos relacionados para evitar notícias falsas

Os novos funcionários do Facebook também deverão ajudar a plataforma a melhor a remoção de itens que proibidos nos termos de serviço da rede social, como discurso de ódio e exploração infantil. "E continuaremos trabalhando com grupos e autoridades locais que estão em melhor posição para ajudar alguém que precisar – seja pelo fato de estaremo próximas de se prejudicarem ou porque estão em perigo por conta de outra pessoa".

Facebook já utiliza inteligência artificial para prevenir casos de suicídio em transmissões de vídeos ao vivo
shutterstock
Facebook já utiliza inteligência artificial para prevenir casos de suicídio em transmissões de vídeos ao vivo

Leia também: Óculos irão substituir os smartphones em cinco anos, projeta Facebook

Em sua mensagem, Zuckerberg também afirmou que a rede social está desenvolvendo ferramentas para ajudar a manter os usuários em segurança. "Tornaremos o relato de problemas mais simples e mais rápido para que nossos analistas determinem que publicações violam nossos padrões e entrem em contato com as autoridades se alguém precisar de ajuda". A aposta do executivo é que as ferramentas ajudem a reduzir o número de casos de vídeos envolvendo suícidios, assassinatos e outros tipos de violência.

"Isso é importante. Na última semana, recebemos a informação de que alguém estava em uma transmissão ao vivo considerando cometer suicídio", lembrou Zuckerberg. Ainda na semana passada, um pai na Tailândia transmitiu ao vivo na rede social ele assassinando sua própria filha, disse a polícia. De acordo com a agência de notícias "Reuters", o vídeo só foi removido um dia após a publicação, quando já tinha mais de 370 mil visualizações.

A preocupação da empresa com situações de violência no feed não é novidade. No início de março, a plataforma anunciou que utilizaria inteligência artificial para prevenir suícidios. A plataforma introduziu um instrumento para os usuários informarem postagens de pessoas que demostram tendência a tirar a própria vida.

Leia também: Facebook usará inteligência artificial para prevenir suicídios em vídeos ao vivo

Aqueles que assistirem a um vídeo com intenções de suicídio podem entrar em contato com o autor da transmissão ou pedir a ajuda de amigos e profissionais. O site disponibiliza uma linha de ajuda para quem denunciar o vídeo. No Brasil, o Facebook tem uma parceria com o Centro de Valorização da Vida (CVV), que atua há décadas no trabalho de prevenção de situações de suícidios.

    Mais Recentes

      Comentários

      Clique aqui e deixe seu comentário!