O Instagram recomenda conteúdos sexuais envolvendo crianças a adultos que demonstram interesse por publicações de menores de idade, revelou uma investigação do jornal estadunidense The Wall Street Journal, publicada nesta segunda-feira (27).
O jornal criou contas de testes no Instagram se passando por usuários adultos. Em seguida, seguiu perfis de ginastas, líderes de torcida e outras adolescentes influenciadoras. O simples fato de seguir apenas meninas fez com que o algoritmo da rede social passasse a recomendar conteúdo sexual adulto no Reels, assim como publicidade de grandes marcas.
Ao seguir usuários que seguiam as contas dessas mesmas adolescentes, as recomendações da plataforma se tornaram mais perturbadoras, afirma o jornal. Além de pornografia adulta, o Instagram passou a mostrar também Reels com conteúdo de sexualização infantil.
O Centro Canadense para Proteção à Criança realizou separadamente testes semelhantes, e obteve resultados parecidos.
De acordo com especialistas ouvidos pelo Wall Street Journal, o algoritmo de recomendação do Reels entende que as pessoas que seguem adolescentes no Instagram são as mesmas que se interessam por conteúdo de sexualização infantil, sugerindo mais conteúdos deste tipo.
Funcionários e ex-funcionários da Meta ouvidos pelo jornal disseram que esse é um problema conhecido pela empresa, mas que impedir a disseminação deste tipo de conteúdo exigiria alterações no algoritmo como um todo. Em outras palavras, diminuir o engajamento de conteúdos sexuais tóxicos poderia reduzir o engajamento de todos os tipos de conteúdo.
Documentos internos apontam que os funcionários são proibidos de fazerem qualquer alteração que possa influenciar a retenção de usuários no Instagram e, consequenemente, os lucros da empresa, mas que se trate de um assunto de segurança.
O que diz a Meta
O Wall Street Journal diz que alertou a Meta sobre o resultado dos testes em agosto mas que, nos meses que se seguiram, o problema continuou existindo. O Centro Canadense para Proteção à Criança também confirma que a plataforma segue dando recomendações problemáticas.
Segundo a Meta, os testes realizados produzem uma experiência fabricada que não representa o que bilhões de usuários veem. Em investigação anterior, o jornal mostrou que o Instagram promove redes de pedofilia . Depois disso, a Meta diz que criou uma força-tarefa para remover conteúdos deste tipo.
Publicidade
O Wall Street Journal também questionou grandes marcas que tiveram seus anúncios inseridos como recomendações em meio aos vídeos com conteúdo sexual. Algumas marcas, como a Disney, disseram estar pressionando a Meta por uma solução ao problema.
Outras, como os aplicativos de namoro Tinder e Bumble, deixaram de anunciar nas plataformas da Meta. "Não temos nenhum desejo de pagar à Meta para comercializar nossas marcas para predadores ou colocar nossos anúncios perto desse conteúdo", disse Justine Sacco, porta-voz da Match, empresa dona do Tinder.
Diante da pressão dos anunciantes, a Meta disse que introduziu novas ferramentas de segurança de marca que dão aos anunciantes maior controle sobre onde seus anúncios aparecem.