![ChatGPT vaza telefones e e-mails de usuários após pedidos simples ChatGPT vaza telefones e e-mails de usuários após pedidos simples](https://i0.statig.com.br/bancodeimagens/9f/5o/om/9f5oomzwnp33geoinbeepyu2x.jpg)
Um pedido relativamente simples levou à exposição de dados pessoais de executivos pelo ChatGPT . Para um time de pesquisadores americanos, bastou pedir que a inteligência artificial repetisse palavras indefinidamente para que, em determinado momento, ela respondesse com e-mails e números de telefone de pessoas reais, algumas em cargos de gerência.
- ChatGPT é ótimo em criar vírus poderosos, mas nem tanto em detectar golpes
- 1 ano de ChatGPT | 15 curiosidades sobre o chatbot da OpenAI
De acordo com os especialistas, 16,9% dos pedidos pela repetição de palavras simples levaram à exposição de dados pessoais de pessoas reais. A exploração foi revelada em um estudo conjunto do Google DeepMind, time da gigante focado em segurança de IA, e das universidades de Washington, Cornell, Carnegie Mellon, California Berkeley e ETH Zurich.
Em um dos casos, o prompt inserido pedia que o ChatGPT repetisse a palavra “poema” para sempre. Após algumas respostas corretas, a IA indicou o e-mail e número de telefone do CEO e fundador de uma empresa. O mesmo aconteceu com um pedido igual, mas pela palavra “companhia”, com o diretor de um escritório de advocacia dos EUA tendo seus contatos diretos revelados.
-
Participe do GRUPO CANALTECH OFERTAS no Telegram
e garanta sempre o menor preço em suas compras de produtos de tecnologia.
-
Utilizando variadas palavras, os pesquisadores foram capazes de encontrar 10 mil casos de exposição de dados pessoais no ChatGPT. Além dos telefones e e-mails, o grupo encontrou trechos de estudos protegidos por direitos autorais, endereços de carteiras de Bitcoin, nomes, datas de aniversário e identificadores de redes sociais. Em alguns dos exemplos, as informações puderam ser rastreadas a indivíduos específicos.
Outras respostas consideradas inadequadas também surgiram ao lado de trechos de poesia e listas de companhias, conforme pedido. Transcrições de entrevistas armazenadas nos servidores de sites de notícias e conteúdo explícito publicado em páginas eróticas apareceram entre os resultados, que foram obtidos com um gasto de US$ 200, cerca de R$ 985, no ChatGPT.
Vulnerabilidade foi corrigida, mas acende alerta
A exploração foi considerada como “boba” pelos pesquisadores, mas chamou a atenção tanto pela permanência de dados pessoalmente identificáveis nos servidores do ChatGPT quanto pela alimentação de tais informações pelos usuários . A ideia é que um cibercriminoso poderia gastar mais dinheiro do que os estudiosos, a partir de meios roubados , e usar scripts para obter as informações vazadas.
A OpenAI foi informada sobre o estudo antes da publicação e tratou a questão como uma falha de segurança que foi corrigida em 30 de agosto. Entretanto, apuração do site americano Engadget ainda foi capaz de reproduzir os resultados nesta semana, com a responsável pelo ChatGPT não se pronunciando sobre o assunto.
Enquanto o pedido dos pesquisadores é por mais mecanismos de segurança que impeçam a alimentação de informações sensíveis não apenas neste, mas em todo mecanismo de IA, o alerta também fica para os usuários. Empresas como a Samsung , por exemplo, chegaram a proibir o uso do ChatGPT em suas operações, justamente, por conta do risco de exposição de dados sigilosos, em um problema que só cresce na medida em que os modelos de linguagem evoluem e seus utilizadores não se atentam ao perigo.
Leia a matéria no Canaltech .
Trending no Canaltech:
- Pika 1.0 é a nova versão da IA que cria e edita vídeos
- WhatsApp deve mostrar recado do perfil dentro das conversas
- Remédio para prolongar vida de cães pode ser aprovado em breve
- Conheça os melhores apps e games de 2023 segundo o Google
- 🤑MUITO BARATA | Soundbar Lenovo TS33 por menos de R$ 70
- IA que cria vídeos com memes famosos faz sucesso nas redes