A capacidade do ChatGPT
de gerar textos convincentes causou um alvoroço. Mas, quando submetida ao escrutínio de quem não se empolga facilmente com a inteligência artificial (IA), a ferramenta mostra seus pontos fracos. No começo, veio a constatação de erros nos resultados gerados. Agora, surgiram sinais de que mecanismos do tipo cometem plágio.
O lado sombrio das IAs que geram conteúdo foi apresentado pela CNET. Mas não na forma de uma reportagem sobre o assunto. O veículo usou um mecanismo do tipo para gerar notícias sobre investimentos e, bom, teve que se retratar. A ferramenta estava apresentando cálculos incorretos.
Esse é um problema grave. Uma informação incorreta sobre investimentos pode fazer o usuário do site tomar uma decisão financeira equivocada. O agravante é que a CNET não deixava claro que estava publicando textos gerados por uma máquina.
A situação piora. Uma apuração feita pelo Futurism indica que a IA usada pela CNET plagiou textos, inclusive de autores do próprio veículo. Algumas supostas cópias eram quase literais, havendo mudanças de certas palavras por sinônimos, por exemplo. Outras eram bastante modificadas, mas não a ponto de impedir a sua identificação como cópia.
O site Big Technology encontrou outra caso chamativo. Um site criado no Substack com o nome The Rationalist publicou um texto que logo se tornou viral. A publicação chegou a ser comentada no Hacker News. Mas alguns usuários deste último notaram algo errado. O texto não parecia ter sido escrito por um humano.
Foi quando o "autor", que se identifica apenas como "Petra", comentou ter usado ferramentas da OpenAI (provavelmente, o ChatGPT), Jasper e Hugging Face para "melhorar a legibilidade" do texto. Logo ficou claro que a publicação era muito parecida com um texto do Big Technology publicado apenas alguns dias antes.
A inteligência artificial como vilã
Tudo indica que os conflitos oriundos do uso indiscriminado da inteligência artificial na geração de conteúdo estão só começando. Como esse cenário é novo, ainda há confusão sobre como leis e políticas de direitos autorais devem ser interpretadas quando a tecnologia está no centro dos desentendimentos.
No caso do The Rationalist, o texto problemático não está mais disponível. No entanto, o Substack teve dúvidas sobre como lidar com a acusação de direitos autorais violados por não ter conseguido determinar se, de fato, aquele texto era um plágio. Aparentemente, o texto foi removido pelo próprio "autor".
Há casos mais graves. A Getty Images está processando a criadora do Stable Diffusion, serviço que gera imagens a partir de textos. A companhia afirma que a Stability AI "copiou e processou ilegalmente milhares de imagens protegidas por direitos autorais" para treinar o seu sistema.
Ainda não há informação sobre se a CNET enfrentará disputas judiciais em razão dos aparentes plágios encontrados em seus textos. Seja como for, a companhia não desistiu de usar ferramentas de inteligência artificial em suas publicações.
Connie Guglielmo, editora-chefe da CNET, admitiu que a empresa cometeu "erros" com o uso da IA. No entanto, ela atribuiu o problema a falhas de revisão por parte dos editores (humanos) encarregados pelas publicações.
O veículo parou de usar a ferramenta, mas Guglielmo declarou que voltará para a tecnologia "quando nos sentirmos confiantes de que a ferramenta e nossos processos editoriais prevenirão erros humanos e de IA".