A Meta emitiu um comunicado nesta terça-feira (09) informando que novas medidas de moderação de conteúdos sensíveis à adolescentes está funcionando nas plataformas Instagram e Facebook. A medida surge em meio à pressão global que reguladores tem feito contra a empresa para as redes protegerem os adolescentes de terem acesso a conteúdos prejudiciais.
No comunicado disponível no site da empresa, eles afirmam que o objetivo é "que os adolescentes tenham experiências seguras e adequadas às suas idades [nos] aplicativos."
A Meta informou que fez pesquisa com especialistas em desenvolvimento de adolescentes, psicologia e saúde mental para conseguir montar ferramentas úteis de moderação de conteúdo. Com isso, eles dificultam o acesso a conteúdos considerado delicado, como, por exemplo, suicídio, automutilação e transtornos alimentares, nas ferramentas de pesquisa e explorar no Instagram.
"A partir de agora, vamos começar a remover esse tipo de conteúdo das experiências dos adolescentes no Instagram e no Facebook, bem como outros tipos de conteúdo impróprio para a idade. Já recomendamos não exibir esse tipo de conteúdo para adolescentes em lugares como Reels e Explorar, e com essas mudanças, não vamos mais mostrá-lo para adolescentes no Feed e nos Stories, mesmo que seja compartilhado por alguém que eles sigam", informou a empresa.
Com a mudança, as contas de adolescentes passam a serem configuradas como de controle de conteúdo mais restritivas no Instagram e no Facebook. As medidas deverão começar a valer a partir da próxima semana.
"Embora permitamos que as pessoas compartilhem conteúdos que discutam suas próprias lutas contra o suicídio, automutilação e transtornos alimentares, nossa política consiste em não recomendar esse conteúdo, e temos nos concentrado em maneiras de torná-lo de mais difícil acesso. A partir de agora, quando as pessoas pesquisarem por termos relacionados ao suicídio, automutilação e transtornos alimentares, começaremos a ocultar resultados relacionados a esses assuntos e vamos direcioná-los para recursos especializados para obter ajuda", informa a empresa como uma das medidas utilizada para ocultar os conteúdos.
A empresa reiterou que está trabalhando para garantir que todos os adolescentes estejam com as configurações de moderação de conteúdo, enviando incentivos para que ela seja ativada. "Caso os adolescentes optem por “Ativar configurações recomendadas”, alteraremos automaticamente suas configurações para restringir quem poderá repostar o seu conteúdo, marcá-lo ou mencioná-lo, ou incluir seu conteúdo nos remixes dos Reels. Também garantiremos que apenas os seus seguidores possam enviar mensagens e ajudar a ocultar comentários ofensivos."
Pressão mundial
A moderação proposta pela Meta surge após a empresa sofrer pressão dos governos mundiais. Os Estados Unidos e diversos países da Europa alegam que os aplicativos da empresa são viciantes e alimentam uma crise de saúde mental juvenil.
Os procuradores-gerais de 33 estados dos Estados Unidos entraram com um processo contra a empresa em outubro, afirmando que a plataforma enganou repetidamente o público sobre os perigos. A Comissão Europeia também contatou a empresa para adquirir informações de como ela protege as crianças dos conteúdos sensíveis.
O ex-funcionário da Meta, Arturo Bejar, depôs ao Senado dos Estados Unidos e alegou que a empresa tinha ciência sobre o assédio e de outros danos enfrentados pelos adolescentes nas suas plataformas. O depoimento de Bejar aumentou a pressão contra a empresa.