Tamanho do texto

Conta só será reaberta se engenheiros encontrarem uma forma de impedir que o robô publique mensagens inadequadas

Empresa excluiu diversos tweets depois que o robô publicou mensagens racistas e sexistas
Reprodução
Empresa excluiu diversos tweets depois que o robô publicou mensagens racistas e sexistas

A Microsoft divulgou uma nota em que afirma estar "profundamente arrependida" pelas mensagens racistas e sexistas publicadas no Twitter por um sistema automático lançado pela empresa na semana passada.

O sistema, conhecido como "Tay", foi projetado para se tornar mais inteligentes conforme os usuários interagem com ele. Em vez disso, o sistema rapidamente aprendeu uma série de expressões antisemitas e de ódio enviadas por usuários do Twitter, forçando a Microsoft a desligá-lo na quinta-feira.

Após o problema, a Microsoft afirmou que vai reativar o Tay apenas se seus engenheiros puderem encontrar uma maneira de impedir que internautas influenciem o sistema de forma que possa agir contra os princípios e valores da companhia.

"Estamos profundamente arrependidos sobre os tuítes ofensivos de Tay, que não representam quem nós somos ou o que defendemos, nem como nós projetamos o Tay", disse Peter Lee, vice-presidente de pesquisa da Microsoft.

A companhia criou o sistema como um experimento para aprender mais sobre como programas de inteligência artificial podem interagir com internautas em uma conversa casual. O projeto foi concebido para interagir e "aprender" com jovens.

Tay foi ativado no Twitter na quarta-feira, publicando uma série de tuítes inofensivos. A partir daí, o sistema deu uma virada.

Em um exemplo, Tay enviou a mensagem: "feminismo é câncer", em resposta a outro usuártio do site de microblogs que tinha publicado a mesma mensagem.

* Com informações da Reuters.

    Faça seus comentários sobre esta matéria mais abaixo.