
A OpenAI, empresa responsável pelo ChatGPT, anunciou a formação de uma equipe para evitar possíveis cenários apocalípticos decorrentes da atividade de modelos de inteligência artificial. O novo time terá a missão de avaliar a possibilidade de catástrofe com ameaças químicas, biológicas, nucleares e em cibersegurança.
- ChaosGPT | Como é a "IA do mal" que quer destruir a humanidade
- Regulamentar IAs não é fácil, mas temos que tentar, diz Sam Altman no Brasil
Essa equipe recebeu o nome de “Preparação” e vai “rastrear, avaliar, prever e proteger” contra possíveis riscos, informa o comunicado da empresa em seu site.
Riscos da IA
Segundo a OpenAI, os modelos de IA “de ponta”, que vão exceder a capacidade dos modelos existentes no mercado, têm o potencial de beneficiar toda a humanidade, mas também “representam riscos cada vez mais graves”.
-
Canaltech no Youtube: notícias, análise de produtos, dicas, cobertura de eventos e muito mais! Assine nosso canal no YouTube
, todo dia tem vídeo novo para você!
-
Com essa preocupação em vista, o novo time de “Preparação” vai elaborar um material sobre os riscos envolvendo a tecnologia, com a apresentação de ações de proteção e uma estrutura de governança para responsabilizar os sistemas de IA.
Esse material deverá responder a algumas perguntas sobre a segurança dos novos modelos, são elas:
- Quão perigosos são os modelos de IA quando mal utilizados, tanto agora quanto no futuro?
- Como podemos construir uma estrutura robusta para monitoramento, avaliação, previsão e proteção contra as capacidades perigosas dos sistemas de IA de fronteira?
- Se os modelos de IA de ponta fossem roubados, como os agentes mal-intencionados poderiam aproveitá-los?
No site da OpenAI, é possível se candidatar para vagas no time de “Preparação”, com trabalho em São Francisco, EUA, e salários entre US$ 200 mil e US$ 370 mil por ano.
Preocupações com IAs mal-intencionadas
No último ano, diversos pesquisadores e desenvolvedores envolvidos com os últimos avanços inteligência artificial expressaram preocupação sobre os perigos que a tecnologia representa.
Em fevereiro, o CEO da OpenAI, Sam Altman, já pedia a regulamentação da tecnologia para evitar IAs “potencialmente assustadoras” . Em março, diversos especialistas — incluindo o bilionário Elon Musk — solicitaram uma interrupção no treinamento de modelos para criar protocolos de segurança e auditoria sobre as IAs.
No mês de julho, gigantes do setor de tecnologia — incluindo Google , Microsoft , Anthropic e OpenAI — anunciaram a criação de grupo de pesquisa para entender riscos e estabelecer boas práticas no desenvolvimento da tecnologia .
Já nesta última semana, o Google ampliou o seu programa de recompensas por descoberta de vulnerabilidade para incluir o pagamento pela identificação de riscos em sistemas de inteligência artificial.
No seu anúncio, a Big Tech de Mountain View também expressa a preocupação que os modelos e algoritmos podem ser usados por pessoas mal-intencionadas e provocar grandes estragos.
Leia a matéria no Canaltech .
Trending no Canaltech:
- Xiaomi 14 estreia com preço agressivo e tela OLED mais brilhante do mundo
- Seca no Rio Negro revela arte rupestre de 2000 anos em rochas de Manaus
- Xbox Series S sobe de preço e passa a custar R$ 3.599 no Brasil
- 10 IAs para criar imagens a partir de textos gratuitas
- Five Nights at Freddy's | Qual a classificação indicativa do filme no Brasil?
- 🔥IMPERDÍVEL | Galaxy S23 Ultra em excelente preço com cupom exclusivo