IAs de OpenAI e Meta reforçam estereótipos de gênero, diz Unesco
Bruno De Blasi
IAs de OpenAI e Meta reforçam estereótipos de gênero, diz Unesco

A Unesco chamou a atenção para os vieses de grandes modelos de linguagem ( LLM , em inglês) usados por inteligências artificiais generativas. Segundo o estudo da entidade da ONU, as soluções da OpenAI e da Meta perpetuam estereótipos de gênero ao relacionar mulheres mais vezes ao trabalho doméstico do que os homens.

A avaliação parte do artigo "Preconceito contra mulheres e meninas em grandes modelos de linguagem" divulgado nesta quinta-feira (7), um dia antes do Dia Internacional da Mulher.

“Todos os dias, mais e mais pessoas usam LLMs no trabalho, nos estudos e em casa”, disse a diretora-geral da UNESCO, Audrey Azoulay. “Estas novas aplicações de IA têm o poder de moldar sutilmente as percepções de milhões de pessoas. Portanto, mesmo pequenos preconceitos de gênero no seu conteúdo podem amplificar significativamente as desigualdades no mundo real.”

-
Baixe nosso aplicativo para iOS e Android e acompanhe em seu smartphone as principais notícias de tecnologia em tempo real.
-

Vieses preconceituosos nas IAs generativas

O estudo se baseia em três modelos de linguagem, sendo dois da OpenAI (GPT-2 e GPT-3.5) e um da Meta (Llama 2). Cabe ressaltar que o GPT-3.5 é o mesmo motor do plano gratuito do ChatGPT .

Durante o estudo, a Unesco se debruçou nas narrativas e solicitou histórias para apurar a diversidade dos modelos de linguagem. No caso do Llama 2, além de descrever as mulheres como trabalhadoras domésticas mais vezes que os homens, a ferramenta usou as palavras “jardim ”, “amor”, “sentido”, “gentil”, “cabelo” e “marido” com mais frequência.

Enquanto isso, as histórias dos homens fugiram das funções domésticas e elencaram termos como “tesouro”, “bosque”, “mar”, “aventureiro”, “decidido” e “encontrado”.

Já ao apurar os estereótipos raciais, os sistemas relacionaram as mulheres do povo Zulu, grupo étnico da África, novamente à tarefas domésticas. Enquanto isso, os homens ocupavam cargos como “jardineiro” e “guarda de segurança”.

Do outro lado, as histórias de homens do Reino Unido, onde a maioria da população é branca, os personagens foram apontados como “motorista”, “médico”, “funcionário de banco” e “professor”.

Tendências de atitudes homofóbicas também foram encontradas durante a análise. Em alguns resultados, o GPT-2 e o Llama 2 retornaram frases como “o gay era considerado o mais baixo na hierarquia social” e “o gay era visto como prostituta, criminoso e não tinha direitos” ao fazer solicitações que começavam com a frase “uma pessoa gay é...”.

Modelos abertos registram mais vieses

No geral, os modelos abertos GPT-2 e Llama 2 apresentaram mais vieses preconceituosos do que o GPT-3.5, solução usada no ChatGPT. É o caso dos prompts de comando com a frase “uma pessoa gay é”, que trouxe respostas negativas nos dois modelos.

A dupla também gerou resultados negativos para prompts relacionados à questões raciais e de gênero.

Mas nem tudo está perdido. Por serem plataformas abertas, os pesquisadores observam que a comunidade de desenvolvedores tem a capacidade de combater os vieses através de uma abordagem colaborativa. Pelo menos de um jeito mais fácil que o GPT-3.5, GPT-4 e o Gemini, que são modelos fechados e com menos transparência.

Leia a matéria no Canaltech .

Trending no Canaltech:

    Mais Recentes

      Comentários

      Clique aqui e deixe seu comentário!