O Twitter começou a testar, na quinta-feira (3), um recurso no Brasil que tenta diminuir a circulação de discurso de ódio. Agora, usuários que tentarem publicar respostas com linguagem ofensiva, como insultos, receberão um alerta para revisarem a publicação.
Neste primeiro momento, a ferramenta está em fase de testes e, portanto, ficará disponível apenas para um número restrito de usuários brasileiros. A novidade está presente tanto no aplicativo para Android quanto para iOS.
A ferramenta já foi testada nos Estados Unidos e, de acordo com o Twitter, o resultado foi positivo. Por lá, mais de 30% dos alertas resultaram em publicações revisadas ou deletadas.
Não gostei
Além do recurso de revisão de respostas, o Twitter anunciou nesta sexta-feira (4) uma nova ferramenta, desta vez valendo para o mundo todo. Em breve, usuários poderão votar de forma negativa respostas em uma publicação, como uma espécie de "dislike".
A contagem de votos negativos não é pública, o que poderia incitar ainda mais comportamentos prejudiciais na rede social. Ao contrário disso, os dados são utilizados pelo próprio Twitter para ajustar seu algoritmo, mostrando menos respostas ofensivas aos usuários.