![Contar segredos ao ChatGPT é muito imprudente, diz especialista Contar segredos ao ChatGPT é muito imprudente, diz especialista](https://i0.statig.com.br/bancodeimagens/ag/vx/8x/agvx8x0iwx6ko7bep2q66fgwf.jpg)
Se você tem o hábito de revelar ao ChatGPT informações íntimas a seu respeito, como visões políticas e até segredos que não deveriam ser ouvidos por outras pessoas, saiba que está sendo um tanto imprudente. Ao menos esta é a visão do professor de ciência da computação Mike Wooldridge, da Universidade de Oxford, no Reino Unido.
- ChatGPT é banido da Itália por problemas ligados a privacidade
- ChatGPT: 7 possíveis riscos da ausência de política de uso em empresas
Em entrevista ao site DailyMail, o especialista explica que as inteligências artificiais são incapazes de criar empatia e são programadas para dizer aquilo que nós, seus utilizadores, queremos ouvir.
“Ela não tem empatia, não tem simpatia”, diz o professor. “De maneira alguma é isso que a tecnologia está fazendo e, o que é mais importante, ela nunca teve qualquer experiência. A tecnologia é projetada basicamente para tentar dizer o que você quer ouvir — isso é literalmente tudo o que ela faz”, explica.
-
Canaltech no Youtube: notícias, análise de produtos, dicas, cobertura de eventos e muito mais! Assine nosso canal no YouTube
, todo dia tem vídeo novo para você!
-
Cuidado ao dividir segredos
Além disso, o especialista explica que todas as interações realizadas entre você e um chatbot de inteligência artificial são usadas para aprimorar a ferramenta. “Você deveria assumir que qualquer coisa que digita no ChatGPT será usado para alimentar futuras versões do ChatGPT”.
Diante desse cenário, é “extremamente imprudente começar a ter conversas pessoais ou reclamar sobre o relacionamento com seu chefe ou expressar opiniões políticas” a um chatbot de IA.
O especialista de Oxford alerta ainda que é “quase impossível” reaver os dados fornecidos a um chatbot. Vale destacar que a OpenAI até tem um meio de alguém requerer que seus dados sejam completamente removidos do ChatGPT, porém isso não evita que tais informações sejam usadas para treinar o modelo de linguagem que dá vida ao chatbot.
Além disso, o serviço de OpenAI já foi responsável por vazamento de dados de usuários recentemente e empresas como Apple e Samsung até mesmo teriam proibido seus funcionários de usar o ChatGPT em dispositivos corporativos. O temor de grandes empresas é justamente que as pessoas compartilhem ali informações sensíveis que seriam usadas para treinar a IA.
Leia a matéria no Canaltech .
Trending no Canaltech:
- O campo magnético da Terra está prestes a ser revertido?
- Galaxy S24 Ultra: foto vazada reforça fim da câmera periscópio
- Crítica Mamonas Assassinas - O Filme | Uma homenagem é uma homenagem
- 8 misturas de produtos de limpeza perigosas para saúde
- As 50 piadas mais engraçadas do Google Assistente
- 10 novos recursos mais legais do WhatsApp em 2023