O Twitter começou a testar, na quinta-feira (3), um recurso no Brasil que tenta diminuir a circulação de discurso de ódio. Agora, usuários que tentarem publicar respostas com linguagem ofensiva, como insultos, receberão um alerta para revisarem a publicação.
Neste primeiro momento, a ferramenta está em fase de testes e, portanto, ficará disponível apenas para um número restrito de usuários brasileiros. A novidade está presente tanto no aplicativo para Android quanto para iOS.
A ferramenta já foi testada nos Estados Unidos e, de acordo com o Twitter, o resultado foi positivo. Por lá, mais de 30% dos alertas resultaram em publicações revisadas ou deletadas.
Não gostei
Além do recurso de revisão de respostas, o Twitter anunciou nesta sexta-feira (4) uma nova ferramenta, desta vez valendo para o mundo todo. Em breve, usuários poderão votar de forma negativa respostas em uma publicação, como uma espécie de "dislike".
A contagem de votos negativos não é pública, o que poderia incitar ainda mais comportamentos prejudiciais na rede social. Ao contrário disso, os dados são utilizados pelo próprio Twitter para ajustar seu algoritmo, mostrando menos respostas ofensivas aos usuários.
We've been testing how we can surface the most relevant replies within Tweets with the use of downvoting on replies. As we're expanding the experiment to a global audience, we want to share a little about what we have learned thus far!
— Twitter Safety (@TwitterSafety) February 3, 2022
👇 https://t.co/wM0CpwRgo6