Frances Haugen, ex-funcionária e delatora do Facebook, responsável por vazar os Facebook Papers
no ano passado, afirma que a Meta não dá a devida atenção às eleições brasileiras, permitindo a circulação de desinformação e discurso de ódio em suas plataformas Facebook, Instagram e WhatsApp.
"O Facebook não tem transparência em relação a quais sistemas de moderação de conteúdo existem e em quais idiomas. Eu sou muito cética de que há cobertura igual em inglês e em português brasileiro", disse ela, durante audiência pública das comissões de Legislação Participativa e de Ciência e Tecnologia, Comunicação e Informática da Câmara dos Deputados na tarde desta terça-feira (5).
Haugen argumentou que, durante as eleições estadunidenses de 2020, o Facebook adicionou diversas camadas de proteção contra desinformação na rede social, e que algo semelhante deveria ser feito no Brasil. Segundo ela, as medidas podem ser implementadas com facilidade, mas a empresa opta por não fazê-lo porque isso poderia diminuir seus lucros.
"O Brasil merece o mesmo nível de investimento que houve nos Estados Unidos, ou ainda maior, já que o processo eleitoral brasileiro depende muito mais dos aplicativos da empresa do que o norte-americano", argumentou, lembrando da importância do WhatsApp no contexto eleitoral do Brasil.
Haugen afirma que a Meta poderia implementar soluções tanto no Facebook quanto no WhatsApp e no Instagram a tempo de ajudar a garantir a democracia nas eleições presidenciáveis deste ano. Para ela, não fazê-lo é uma "falta de respeito" com o povo brasileiro.
Falta de transparência
Durante a audiência pública, a ex-funcionária do Facebook afirmou que a empresa age sem transparência, e que esse é um dos maiores motivos pelos quais ela não modera conteúdo adequadamente.
"O Facebook intencionalmente tem negado acesso às suas informações. Eles não querem que o ecosssistema de regulação opere, não querem que reguladores entendam como a plataforma funciona. Eles escondem todas as coisas importantes", disse.
Haugen lembra que não é possível saber, por exemplo, como funciona a moderação de conteúdo feita por pessoas. Pesquisas já mostram que as redes sociais, no geral, não têm o mesmo rigor ao moderar conteúdo em inglês e em outras línguas, negligenciando países como o Brasil, onde desinformação e discurso de ódio circulam mais livremente.
"Se eu soubesse que há uma ou duas pessoas trabalhando nas eleições brasileiras, eu ficaria surpresa", afirmou Haugen. "É inaceitável que eles operem às escuras quando há esse histórico de negligenciar o Brasil".
Nesse sentido, a ex-funcionária elogiou o PL das Fake News, que deve ser votado pela Câmara dos Deputados em breve. Para ela, há alguns dispositivos falhos no texto, mas a exigência de transparência das plataformas é essencial. Por isso, ela aconselhou a aprovação do PL, que considera "uma exclente oportunidade para o Brasil" avançar na legislação sobre redes sociais.
"O Brasil merece saber quanto esforço está sendo investido por parte do Facebook em moderação de conteúdo e segurança, e merece saber até que nível há equidade linguística entre inglês e português", opinou.