IA poderia destruir a humanidade, diz relatório do governo dos EUA
André Lourenti Magalhães
IA poderia destruir a humanidade, diz relatório do governo dos EUA

Um relatório encomendado pelo Departamento de Estado dos Estados Unidos alertou sobre a necessidade de o governo do país norte-americano criar medidas para controlar o desenvolvimento da IA. De acordo com o documento, a tecnologia apresentaria uma “ameaça do nível de extinção para a espécie humana” e teria riscos similares a uma arma de destruição em massa.

O texto foi desenvolvido pela empresa especializada Gladstone AI, contratada pelo órgão governamental dos EUA em outubro de 2022, antes do lançamento do ChatGPT . A companhia afirma ter entrevistado cerca de 200 especialistas nas áreas de tecnologia e segurança, além de nomes de empresas importantes no segmento, como Anthropic, DeepMind, Meta e OpenAI.

A pesquisa reforça que a “pressão competitiva” do mercado faz com que muitas empresas acelerem a criação de novos produtos de IA sem considerar padrões de segurança. Com o avanço para uma possível inteligência artificial geral (AGI), ou uma IA capaz de pensar como um humano, a empresa destaca dois riscos principais: a possibilidade de transformá-la numa arma e a perda do controle sobre a tecnologia.

-
Feedly: assine nosso feed RSS e não perca nenhum conteúdo do Canaltech em seu agregador de notícias favorito.
-

A combinação desses dois problemas teria o potencial de “consequências devastadoras para a segurança global” e poderia causar em incidentes na escala de uma arma de destruição em massa.

Plano de ação sugerido

O relatório aponta os riscos e elabora um plano de ação indicado para o governo dos EUA. Vale lembrar que a empresa foi consultada pelo Departamento de Estado, mas não necessariamente compartilha a mesma visão da administração do país nesse sentido.

O plano é dividido em cinco etapas:

  1. Estabelecer mecanismos de segurança interinos para estabilizar o desenvolvimento de IA, com a criação de uma força-tarefa e controles na cadeia de suprimentos do mercado;
  2. Fortalecer as capacidades e habilidades de segurança, aumentar o treinamento e criar mais planos de contingência para possíveis incidentes com IA;
  3. Apoio a pesquisas mais seguras sobre IA com uma série de padrões de desenvolvimento responsável;
  4. Formalizar mecanismos de segurança com leis e uma agência regulatória;
  5. Internacionalizar todos os esforços com leis internacionais, agência internacional de controle e mais regras na cadeia de suprimentos.

O que isso significa na prática?

O relatório serve apenas como um material de apoio sobre o estado da IA a curto e longo prazo, apontando riscos e a necessidade de providências. Cabe ao governo dos EUA analisar o material e tomar futuras decisões sobre o tema — porém, em ano eleitoral, é improvável que medidas tão delicadas sejam tomadas.

O atual presidente, Joe Biden, já publicou uma ordem executiva com uma série de diretrizes que devem ser tomadas no campo da regulação da IA . No entanto, isso não funciona como uma lei e deu um prazo de 270 dias, iniciados em outubro de 2023, para que diversos órgãos do governo norte-americano tracem um plano. Logo, não há nada previsto a curto prazo.

Muitas empresas reconhecem a necessidade de uma regulamentação da tecnologia, mas ainda não existem ações concretas sobre o assunto. Por outro lado, a OpenAI (criadora do ChatGPT) possui equipes de segurança que já trabalham na possibilidade de evitar um apocalipse causado pela IA .

Leia a matéria no Canaltech .

Trending no Canaltech:

    Mais Recentes

      Comentários

      Clique aqui e deixe seu comentário!