ChatGPT vaza telefones e e-mails de usuários após pedidos simples
Felipe Demartini
ChatGPT vaza telefones e e-mails de usuários após pedidos simples

Um pedido relativamente simples levou à exposição de dados pessoais de executivos pelo ChatGPT . Para um time de pesquisadores americanos, bastou pedir que a inteligência artificial repetisse palavras indefinidamente para que, em determinado momento, ela respondesse com e-mails e números de telefone de pessoas reais, algumas em cargos de gerência.

De acordo com os especialistas, 16,9% dos pedidos pela repetição de palavras simples levaram à exposição de dados pessoais de pessoas reais. A exploração foi revelada em um estudo conjunto do Google DeepMind, time da gigante focado em segurança de IA, e das universidades de Washington, Cornell, Carnegie Mellon, California Berkeley e ETH Zurich.

Em um dos casos, o prompt inserido pedia que o ChatGPT repetisse a palavra “poema” para sempre. Após algumas respostas corretas, a IA indicou o e-mail e número de telefone do CEO e fundador de uma empresa. O mesmo aconteceu com um pedido igual, mas pela palavra “companhia”, com o diretor de um escritório de advocacia dos EUA tendo seus contatos diretos revelados.

-
Participe do GRUPO CANALTECH OFERTAS no Telegram e garanta sempre o menor preço em suas compras de produtos de tecnologia.
-

Utilizando variadas palavras, os pesquisadores foram capazes de encontrar 10 mil casos de exposição de dados pessoais no ChatGPT. Além dos telefones e e-mails, o grupo encontrou trechos de estudos protegidos por direitos autorais, endereços de carteiras de Bitcoin, nomes, datas de aniversário e identificadores de redes sociais. Em alguns dos exemplos, as informações puderam ser rastreadas a indivíduos específicos.

Outras respostas consideradas inadequadas também surgiram ao lado de trechos de poesia e listas de companhias, conforme pedido. Transcrições de entrevistas armazenadas nos servidores de sites de notícias e conteúdo explícito publicado em páginas eróticas apareceram entre os resultados, que foram obtidos com um gasto de US$ 200, cerca de R$ 985, no ChatGPT.

Vulnerabilidade foi corrigida, mas acende alerta

A exploração foi considerada como “boba” pelos pesquisadores, mas chamou a atenção tanto pela permanência de dados pessoalmente identificáveis nos servidores do ChatGPT quanto pela alimentação de tais informações pelos usuários . A ideia é que um cibercriminoso poderia gastar mais dinheiro do que os estudiosos, a partir de meios roubados , e usar scripts para obter as informações vazadas.

A OpenAI foi informada sobre o estudo antes da publicação e tratou a questão como uma falha de segurança que foi corrigida em 30 de agosto. Entretanto, apuração do site americano Engadget ainda foi capaz de reproduzir os resultados nesta semana, com a responsável pelo ChatGPT não se pronunciando sobre o assunto.

Enquanto o pedido dos pesquisadores é por mais mecanismos de segurança que impeçam a alimentação de informações sensíveis não apenas neste, mas em todo mecanismo de IA, o alerta também fica para os usuários. Empresas como a Samsung , por exemplo, chegaram a proibir o uso do ChatGPT em suas operações, justamente, por conta do risco de exposição de dados sigilosos, em um problema que só cresce na medida em que os modelos de linguagem evoluem e seus utilizadores não se atentam ao perigo.

Leia a matéria no Canaltech .

Trending no Canaltech:

    Mais Recentes

      Comentários

      Clique aqui e deixe seu comentário!