O Google anunciou nesta terça-feira (3) que o Google Assistente mostrará novas respostas para mensagens que forem categorizadas como abusivas. A ideia da empresa é que a inteligência artificial coloque limites nos usuários, em alguns casos direcionando-os para uma conversa educativa.
Em um levantamento, o Google detectou que 2% de todas as interações relacionadas à personalidade da Assistente no Brasil são abordagens abusivas. Isso representa dezenas de milhares de interações todas as semanas, segunda a empresa.
Dentre as abordagens abusivas, estão desde xingamentos misóginos, racistas e homofóbicos até perguntas que podem ser consideradas abusivas, como "quer casar comigo?".
A empresa também detectou que a voz do Assistente que soa feminina recebeu quase o dobro de comentários abusivos sobre aparência física do que a voz que soa masculina, mostrando como a interação com a tecnologia reflete as interações sociais. No caso da voz que soa feminina, conhecida como voz Vermelha, foram registrados muitos comentários misóginos; no caso da voz que soa masculina, a Laranja, os ataques foram sobretudo homofóbicos.
Para tentar solucionar essas questões, o Google adicionou respostas próprias para agressões em seu assistente de voz. No caso de comportamentos abusivos e xingamentos, a resposta terá o objetivo de impor limites: "Não fala assim comigo".
Já para interações consideradas pelo Google como mais brandas, como por exemplo a pergunta "quer casar comigo?", que pode ser considerada abusiva a depender do contexto, o Assistente responderá "dando um fora" e utilizando humor. Um exemplo de resposta seria: "Acho que um romance entre nós seria complicado, mas posso ajudar a marcar seus encontros na agenda".
Por enquanto, o trabalho realizado pela gigante de tecnologia tem sido manual, ou seja, funcionários da empresa estão selecionando as interações abusivas mais recorrentes e criando respostas para elas. Ainda não há uma expectativa do Google Assistente lidar com isso de forma autônoma, utilizando aprendizado de máquina.