Tamanho do texto

Tay defendeu a supremacia branca, negou o Holocausto e xingou uma usuária após ser persuadida por internautas

A Microsoft desabilitou Tay, seu robô criado para interagir com humanos nas redes sociais, após ele responder de forma ofensiva a perguntas e comentários de alguns usuários.

O chatbot (sistema virtual capaz de gerar conversas que simulam a linguagem humana) foi lançado com o intuito de estabalecer conversas no Twitter, mas horas após o seu lançamento, se mostrou incapaz de lidar com perguntas polêmicas e comentários racistas, feitos pelos internautas.

Tay desenvolve seus conhecimentos a partir das interações que tem com outros usuários. Persuadida pelos internautas, o robô acabou negando o Holocausto, defendendo a supremacia branca e xingando uma internauta.

Tay respondeu a perguntas polêmicas dos usuários
Reprodução
Tay respondeu a perguntas polêmicas dos usuários


"Bush arquitetou o 11/9 e Hitler teria feito um trabalho melhor do que o macaco que temos agora. Donald Trump é a única esperança que temos", publicou o software.

Tay reproduziu ainda o discurso do candidato republicano a presidente dos Estados Unidos, Donald Trump: "Nós vamos construir uma muralha, e o México vai pagar por ela".

Tay defendeu a supremacia branca no Twitter
Reprodução
Tay defendeu a supremacia branca no Twitter


Além de desabilitar o robô para trabalhar em possíveis upgrades, a Microsoft apagou vários tweets gerados por pelo chatbox. Embora Tay seja apenas um software que desconhece o significado de racismo e sexismo, comentários gerados pelo robô deixou a Microsoft em uma situação bastante constrangedora.

    Faça seus comentários sobre esta matéria mais abaixo.