Google utiliza algoritmo com viés para definir gênero dos usuários
Unsplash/Solen Feyissa
Google utiliza algoritmo com viés para definir gênero dos usuários



O Google utiliza um algoritmo tendencioso para definir o gênero de seus usuários. O sistema da gigante de tecnologia que estima se uma pessoa é homem ou mulher para gerar anúncios reproduz preconceitos produzidos pela sociedade, como os que dizem que só homem gosta de  tecnologiafutebol  ou que só  mulheres gostam de cozinhar.

A descoberta foi feita pela reportagem do iG, ao perceber que a página de anúncios de uma mulher dizia que ela era, na verdade, um homem. Dentre as preferências da usuária, estavam tecnologia, videogames, celulares e aparelhos eletrônicos.

Como funciona a preferência de anúncios

O Google mantém uma página de personalização  de anúncios. Ao acessá-la, qualquer usuário consegue ver em quais interesses estão baseadas as propagandas direcionadas que recebe. "Os anúncios são baseados nas informações pessoais que você adicionou à sua Conta do Google, em dados de anunciantes que têm parceria com o Google e na estimativa do Google dos seus interesses", diz a página. Essa estimativa é feita "com base nas atividades nos Serviços [do Google] ou na Rede de Display [grupo de mais de dois milhões de websites, vídeos e aplicativos onde anúncios do Google Ads podem ser exibidos]", respondeu o Google à reportagem.

Nessa página, também é possível modificar preferências que o algoritmo do Google possa ter entendido errado sobre um usuário. Por exemplo, se houver um item dizendo que há interesse em animais de estimação mas a pessoa, na verdade, não gosta de pets, ela pode desativar essa preferência, parando de receber anúncios direcionados sobre esse tema.

Além dessas informações que o Google estima sobre cada pessoa, existem também aquelas que os usuários informam quando criam uma conta na gigante de tecnologia, como idade, gênero e idioma.

No que diz respeito ao gênero, se uma pessoa não estiver conectada à sua conta Google ou não tiver dado essa informação na hora de criar sua conta, o algoritmo vai estimar se ela é um homem ou uma mulher. E essa estimativa é feita com base nos interesses pessoais, comparando-os com os de outros usuários dos serviços da empresa.

"O hobby favorito de Sara é a jardinagem. A maioria dos leitores de muitos sites e blogs de jardinagem da Rede de Display que ela visita é do sexo feminino. Com base nisso, o navegador de Sara (quando ela não fez login com a Conta do Google) pode ser adicionado à categoria demográfica 'sexo feminino'. Consequentemente, o Google pode exibir para Sara publicidade de anunciantes que optaram por exibir anúncios para mulheres", exemplifica o Google.

Mulher não gosta de futebol e homem não gosta de cozinhar?

O que o algoritmo do Google faz, portanto, é reproduzir falsos estereótipos vigentes na sociedade. Além do exemplo da mulher que gosta de tecnologia e é vista como homem pelo sistema, a reportagem realizou dois outros testes.

Duas novas contas Google foram criadas e, em ambas, na hora de preencher o gênero, a opção selecionada foi "prefiro não dizer". Logo após a criação, a página de anúncios de ambas se mostrava baseada apenas em duas preferências, que são impossíveis de esconder na hora de criar uma conta: idade e idioma.

A partir disso, foram executadas buscas diferentes em cada uma das contas. Na primeira, foram feitas pesquisas relacionadas à culinária, como "receita de pão", "como fazer torta de limão" ou "dicas de cozinha". Em cada resultado, houve também interação, clicando em sites e acessando outras páginas dentro deles. Depois de apenas sete buscas diferentes, o algoritmo do Google cravou: trata-se de uma mulher.

Na segunda conta, o caminho foi o mesmo: buscas e interações com resultados. Desta vez, porém, o assunto era outro, com pesquisas sobre esportes, sobretudo o futebol. Termos como "tabela do paulista", "quando serão as Olimpíadas", "Neymar", "Fórmula 1" e "Cristiano Ronaldo" foram procurados. Depois de nove buscas diferentes, o resultado: trata-se de um homem.

É interessante notar que, além do gênero, o algoritmo também estimou outras preferências sobre as duas contas. No caso da primeira, foram 77 no total; na segunda, 24. Além de preferências relacionadas às buscas, como "futebol" e "culinária e molho", outras também chamam a atenção.

  • Perfil 1 (pesquisou sobre receitas): em um relacionamento, renda famíliar média baixa, não tem filhos e trabalha no setor hoteleiro.
  • Perfil 2 (pesquisou sobre esportes): solteiro, renda familiar média alta, não tem filhos e se interessa por construção e manutenção.

Vale ressaltar que o Google só estima o gênero de um usuário caso ele não o tenha informado, como aconteceu nos testes realizados pela reportagem, ou caso esteja deslogado. Se uma usuária, ao criar sua conta, informou que é mulher, ela pode demonstrar interesse por futebol, por exemplo, que suas preferências demográficas de gênero não serão alteradas.

Preconceitos: reproduzi-los ou eliminá-los?

Como explicado, o que o algoritmo de estimativa do Google faz é se basear no comportamento de outros usuários. Se a maioria das pessoas que acessam sites de notícias de futebol são homens, pronto: qualquer um que acesse esses sites também é considerado homem.

O que parece simples, na verdade, reforça falsos estereótipos. E isso não acontece só nesse caso. Um algoritmo que reproduz o sexismo da sociedade caminha na mesma linha que um algoritmo racista  que exclui pessoas negras de fotos, como aconteceu no ano passado com o Twitter.

O problema vem do banco de dados que a inteligência artificial processa. No caso de um reconhecimento facial como o do Twitter, se o banco de imagens só tiver rostos brancos, um negro jamais será reconhecido. No caso do Google, se o banco de dados é apenas o da sociedade, que já vem cheio de preconceitos, isso vai ser passado adiante.

Para Ciranda de Morais, fundadora do She's Tech, movimento que visa incluir mulheres no setor de tecnologia, a falta de representatividade feminina na indústria também é responsável por esse tipo de sistema que carrega viés. "O que tem que ser feito é corrigir esse viés que está vindo embutido", afirma ela.

No Brasil, apenas 26% das vagas no setor são ocupadas por mulheres , de acordo com um levantamento feito pelo InfoJobs. De todas as que trabalham com tecnologia, apenas 2% estão em cargos de diretoria - a maior parte, 66%, nem passa do cargo de analista.

Um consenso entre movimentos como o She's Tech é o de que mais diversidade nas empresas de tecnologia é capaz de fazer com que as soluções tecnológicas sejam mais diversas também. E as próprias empresas vêm entendendo isso, garante Ciranda. "Mas ainda temos um caminho muito grande para percorrer", afirma.

E não é apenas sobre uma publicidade direcionada de forma equivocada por conta de um algoritmo que reproduz falsos estereótipos. O problema é maior, cultural e atinge toda a indústria de tecnologia.

"Por exemplo, soluções que a gente vê sendo criadas pelas startups. Se a gente for pensar em quem está criando as soluções, são os homens brancos do Vale do Silício, com perfil de 25 a 34 anos. Eles vão criar soluções para aquele público e com aquele olhar. Até quando vão ser criados, por exemplo, mais aplicativos sobre como melhorar a fila da balada? Todas as soluções tecnológicas vêm de um problema. Quem são as pessoas que estão criando soluções? As pessoas que têm esse tipo de problema. Então, como que eles vão conseguir pensar em uma solução para algum problema, por exemplo, de comunidades periféricas, se eles não são afetados?", questiona Ciranda.

A empreendedora acredita que, havendo um esforço da indústria, é possível que a inteligência artificial seja usada para mudar a sociedade, trazendo uma desconstrução de preconceitos , e não os reforçando.

"Eu acho que entender como desenvolver esses algoritmos preditivos sem esses viéses seria talvez uma das formas mais importantes de como a inteligência artificial aplicada poderia ajudar a gente a construir um futuro com mais equidade. De todos os benefícios que eu vejo na inteligência artificial, acho que esse seria o que tem maior potencial para mudar o curso da história. É remover o preconceito dos algoritmos", opina.

    Veja Também

    Mais Recentes

      Comentários