Recentemente, usuários do Facebook visualizaram um vídeo veiculado por um jornal sensacionalista britânico e protagonizado por homens negros, e receberam um aviso gerado automaticamente. A mensagem perguntava se desejavam “continuar a receber vídeos sobre primatas”, de acordo com o jornal The New York Times.
Darci Groves, antiga diretora de design de conteúdo do Facebook, compartilhou uma captura de tela que mostrava a recomendação. “Esse questionamento é inaceitável. Isso é atroz”, tuitou Groves.
Na sexta- feira (3), o Facebook se pronunciou e disse que a funcionalidade de recomendação de temas, a qual associou de maneira errada homens negros a “primatas”, foi desabilitada.
Um porta - voz da empresa definiu a situação como “erro claramente inadmissível” e falou que o software de sugestões, baseado em inteligência artificial, foi desconectado.
“Pedimos desculpas a quem quer que tenha visto essas recomendações ofensivas”, respondeu a rede social depois de ser contatada pela AFP (Agence France Presse). “Desabilitamos a função de sugerir tópicos assim que nos demos conta do que estava acontecendo, para que possamos investigar a causa e evitar mais casos como esse”, acrescentou o Facebook.
O programa de reconhecimento facial foi muito criticado por defensores dos direitos civis, que destacaram os problemas de precisão do software, especialmente com relação a pessoas que não sejam brancas.