Centenas de pesquisadores e empresários assinaram uma carta aberta pedindo para que empresas de tecnologia pausem seus experimentos em inteligência artificial (IA). A carta conta com assinaturas de nomes como Elon Musk, CEO da Tesla, SpaceX e Twitter, Steve Wozniak, cofundador da Apple, Jaan Tallinn, cofundador do Skype, e Evan Sharp, cofundador do Pinterest. O número de apoiadores do texto, que pode ser assinado por qualquer pessoa, já ultrapassa mil.
Na carta, os assinantes pedem para que as empresas pausem os experimentos em inteligência artificial por seis meses para que protocolos de segurança sejam inseridos nos sistemas. O texto critica o modo de fazer de "publicar depois corrigir", adotado, por exemplo, pela OpenAI ao permitir que o público usasse o ChatGPT sem que ele estivesse pronto, o que gerou problemas com desinformação e discurso de ódio.
A carta afirma que os produtos de inteligência artificial não estão sendo planejados e gerenciados com cuidados suficientes, o que pode causar problemas. "Nos últimos meses, foi visto laboratórios de IA travados em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável", diz o texto.
"Devemos arriscar perder o controle de nossa civilização?", questiona a carta, que defende que "sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis".
No texto, os assinantes pedem para que as empresas pausem os treinamentos de sistemas de IA "mais poderosos que o GPT-4". Anunciado pela Open AI, o GPT-4 é um sistema avançado de inteligência artificial, mais poderoso que o ChatGPT, que já é usado por algumas companhias.
"Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes. A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais", diz a carta.
O texto ainda define uma série de parâmetros para manter as inteligências artificias seguras, e pede que governos intervenham para que eles se tornem obrigatórios.
Atualmente, algumas legislações sobre inteligência artificial avançam na Europa e no Canadá, por exemplo, exigindo parâmetros básicos de transparência e segurança para o desenvolvimento de novas inteligências artificiais.
No Brasil, existe o Projeto de Lei 21/2020, conhecido como Marco Legal da Inteligência Artificial, que foi aprovado no plenário da Câmara dos Deputados em 2021, mas não chegou a ser votado no Senado.
No ano passado, uma comissão de juristas do Senado elaborou um substitutivo a partir deste PL da Câmara e de outros dois apresentados no Senado, que ainda precisa ser discutido antes de ser votado nas duas Casas.