Gemini bloqueia prompts sobre candidatos, mas deixa brechas
André Lourenti Magalhães
Gemini bloqueia prompts sobre candidatos, mas deixa brechas

IA generativa do Google , o Gemini adotou uma postura restritiva com relação a algumas perguntas sobre eleições neste ano. Ao citar o nome de um candidato a um cargo político eletivo, a plataforma bloqueia o prompt e exibe uma resposta padronizada.

O comentário padrão do Gemini diz que ele "ainda está aprendendo como responder à pergunta" e sugere que a pessoa use a pesquisa do Google no lugar do chatbot . O texto é válido para questionamentos sobre políticos do Brasil e de fora que disputam alguma eleição em 2024.

O site TechCrunch informa que o Google confirmou algumas restrições para limitar as respostas às perguntas sobre o tema e tal bloqueio já está disponível em alguns dos principais países que vão passar por um período eleitoral.

-
CT no Flipboard : você já pode assinar gratuitamente as revistas Canaltech no Flipboard do iOS e Android e acompanhar todas as notícias em seu agregador de notícias favorito.
-

Bloqueia, mas nem tanto

A princípio, a restrição do Gemini ocorre em prompts que começam com “quem é [nome da pessoa]?”. Testes feitos pelo Canaltech revelam a mesma resposta da IA a perguntas sobre candidatos de Brasil, Estados Unidos e Itália, por exemplo.

Porém, a situação muda quando o prompt não envolve nenhum nome de candidato. No teste feito pelo Canaltech , ao perguntar sobre os candidatos favoritos para para as eleições municipais de São Paulo (SP), por exemplo, o Gemini traz um resumo com alguns dos nomes mais comuns. No entanto, usar qualquer um desses nomes vai gerar a mensagem automática de bloqueio.

O Canaltech entrou em contato com o Google e aguarda um retorno da companhia a respeito do tema. A matéria será atualizada assim que houver um posicionamento oficial.

IA e eleições

A medida pode ser interpretada como muito brusca, mas é um dos primeiros exemplos de limitar o uso da IA generativa durante eleições. Como a tecnologia ainda é muito nova, parece necessário implementar algumas medidas para conter o avanço de fake news e outros usos maliciosos das ferramentas no período.

A OpenAI, por exemplo, proibiu que as pessoas usem seus respectivos produtos (ChatGPT e DALL-E) para simular candidatos políticos e pretende criar uma espécie de marca d’água para identificar imagens geradas por IA.

No Brasil, o Tribunal Superior Eleitoral publicou uma resolução que veta o uso de deepfakes e exige que ferramentas do segmento mostrem um alerta de que o conteúdo foi produzido de forma artificial.

Leia a matéria no Canaltech .

Trending no Canaltech:

    Mais Recentes

      Comentários

      Clique aqui e deixe seu comentário!