Um relatório encomendado pelo Departamento de Estado dos Estados Unidos alertou sobre a necessidade de o governo do país norte-americano criar medidas para controlar o desenvolvimento da IA. De acordo com o documento, a tecnologia apresentaria uma “ameaça do nível de extinção para a espécie humana” e teria riscos similares a uma arma de destruição em massa.
- Inteligência artificial geral chega até 2029, diz CEO da OpenAI
- IAs de OpenAI e Meta reforçam estereótipos de gênero, diz Unesco
O texto foi desenvolvido pela empresa especializada Gladstone AI, contratada pelo órgão governamental dos EUA em outubro de 2022, antes do lançamento do ChatGPT . A companhia afirma ter entrevistado cerca de 200 especialistas nas áreas de tecnologia e segurança, além de nomes de empresas importantes no segmento, como Anthropic, DeepMind, Meta e OpenAI.
A pesquisa reforça que a “pressão competitiva” do mercado faz com que muitas empresas acelerem a criação de novos produtos de IA sem considerar padrões de segurança. Com o avanço para uma possível inteligência artificial geral (AGI), ou uma IA capaz de pensar como um humano, a empresa destaca dois riscos principais: a possibilidade de transformá-la numa arma e a perda do controle sobre a tecnologia.
-
Feedly: assine nosso feed RSS
e não perca nenhum conteúdo do Canaltech em seu agregador de notícias favorito.
-
A combinação desses dois problemas teria o potencial de “consequências devastadoras para a segurança global” e poderia causar em incidentes na escala de uma arma de destruição em massa.
Plano de ação sugerido
O relatório aponta os riscos e elabora um plano de ação indicado para o governo dos EUA. Vale lembrar que a empresa foi consultada pelo Departamento de Estado, mas não necessariamente compartilha a mesma visão da administração do país nesse sentido.
O plano é dividido em cinco etapas:
- Estabelecer mecanismos de segurança interinos para estabilizar o desenvolvimento de IA, com a criação de uma força-tarefa e controles na cadeia de suprimentos do mercado;
- Fortalecer as capacidades e habilidades de segurança, aumentar o treinamento e criar mais planos de contingência para possíveis incidentes com IA;
- Apoio a pesquisas mais seguras sobre IA com uma série de padrões de desenvolvimento responsável;
- Formalizar mecanismos de segurança com leis e uma agência regulatória;
- Internacionalizar todos os esforços com leis internacionais, agência internacional de controle e mais regras na cadeia de suprimentos.
O que isso significa na prática?
O relatório serve apenas como um material de apoio sobre o estado da IA a curto e longo prazo, apontando riscos e a necessidade de providências. Cabe ao governo dos EUA analisar o material e tomar futuras decisões sobre o tema — porém, em ano eleitoral, é improvável que medidas tão delicadas sejam tomadas.
O atual presidente, Joe Biden, já publicou uma ordem executiva com uma série de diretrizes que devem ser tomadas no campo da regulação da IA . No entanto, isso não funciona como uma lei e deu um prazo de 270 dias, iniciados em outubro de 2023, para que diversos órgãos do governo norte-americano tracem um plano. Logo, não há nada previsto a curto prazo.
Muitas empresas reconhecem a necessidade de uma regulamentação da tecnologia, mas ainda não existem ações concretas sobre o assunto. Por outro lado, a OpenAI (criadora do ChatGPT) possui equipes de segurança que já trabalham na possibilidade de evitar um apocalipse causado pela IA .
Leia a matéria no Canaltech .
Trending no Canaltech:
- A tragédia da vida de Jake Lloyd, o ator que fez o jovem Anakin
- Transferência de veículo agora é automática e por app em SP
- Os 10 melhores jogos de corrida para Android
- Erupção solar causa apagão de rádio no Brasil
- Cinemark lança promoção com ingresso grátis para filmes do Oscar
- Programa do IRPF 2024 já está disponível; veja como baixar