Como identificar vídeos criados por Inteligência Artificial

Especialistas explicam sinais visuais e sonoros que ajudam a detectar conteúdos falsos nas redes

Ferramentas e especialistas ajudam a identificar vídeos falsos gerados por Inteligência Artificial
Foto: Reprodução/freepik
Ferramentas e especialistas ajudam a identificar vídeos falsos gerados por Inteligência Artificial

Em meio à aproximação de um novo ano eleitoral no Brasil e à crescente disseminação de vídeos manipulados nas redes sociais, especialistas alertam que conteúdos gerados por Inteligência Artificial (IA) estão cada vez mais realistas e difíceis de identificar a olho nu. Esses vídeos, conhecidos como deepfakes, podem influenciar a opinião pública, disseminar desinformação e até interferir em decisões políticas e judiciais.

Dhiogo Correa
Foto: Arquivo pessoal
Dhiogo Correa

Um vídeo feito por IA não é captado por câmeras, mas produzido por algoritmos conhecidos como modelos generativos . “ Esses sistemas aprendem a criar cenas, pessoas e sons a partir de descrições de texto ou imagens estáticas ”, explica ao Portal iG Dhiogo Correa, professor convidado do MBA em Informação, Tecnologia e Inovação da UFSCar e CTO da Draiven.

Segundo ele, a diferença é que, embora pareçam reais, esses vídeos “ são totalmente sintéticos ”. Ainda assim, mesmo os sistemas mais avançados têm dificuldade em reproduzir de forma natural “ o movimento tridimensional e a coerência do cenário ”.

Foto: Arquivo pessoal
Nicola Sanchez

Para Nicola Sanchez, CEO da Matrix Go, o princípio é semelhante. “ Em vez de câmeras, atores e cenários físicos, a IA usa dados textuais, sonoros ou visuais para gerar cada quadro. Isso permite produzir conteúdos completamente sintéticos e realistas, com base apenas em descrições ”, comenta em entrevista ao iG .

Como o público pode testar a veracidade

Apesar do alto nível de realismo, há pistas perceptíveis. “ Movimentos corporais errados, mãos que atravessam objetos ou sombras que não acompanham a luz corretamente são sinais claros ”, diz Correa. Ele cita ainda expressões “ mecânicas ”, como sorrisos que não afetam os olhos, ou piscadas sincronizadas demais.

Sanchez complementa que distorções em objetos, sombras incoerentes e transições muito suaves também são indícios. “ No som, vozes excessivamente limpas, sem respiração natural ou variação de entonação, geram uma sensação de uniformidade e artificialidade ”, afirma.

A clonagem de vozes é outro desafio. “ Hoje é possível gerar vozes humanas falsas com poucos segundos de gravação, imitando tom e sotaque de qualquer pessoa ”, explica Correa. Segundo ele, o áudio gerado por IA costuma ter “ volume constante, pausas artificiais e falta de emoção real ”.

Sanchez acrescenta que o público pode perceber “ pausas uniformes demais e ausência de pequenas falhas naturais de fala ”. Esses detalhes são, por enquanto, o principal diferencial entre o real e o sintético .

Correa recomenda o “ método dos três olhares ”:

  • Olhar técnico – usar ferramentas como o InVID para extrair quadros e fazer busca reversa de imagens;
  • Olhar lógico – avaliar se o conteúdo faz sentido, observando sombras, proporções e coerência;
  • Olhar de contexto – conferir se veículos de imprensa ou agências de checagem divulgaram a mesma informação.

Já Sanchez reforça a importância de buscar a fonte original. “ Desconfie de vídeos com aparência perfeita, mas sem registros verificáveis ”, afirma.

Ferramentas para verificar autenticidade

Entre os recursos gratuitos que ajudam a verificar vídeos estão o InVID & WeVerify, usado por jornalistas para extrair quadros e metadados de vídeos; o Verify, da Content Authenticity Initiative, que mostra assinaturas digitais de origem; e a Google News Initiative (GNI), que oferece treinamentos e guias sobre checagem de fatos.

Sanchez também cita plataformas especializadas como Reality Defender e Hive Moderation, que usam padrões de pixels e metadados para detectar inconsistências.

Com o avanço tecnológico, distinguir o real do falso será um desafio cada vez maior. “ A tendência é que essa distinção dependa mais de sistemas automáticos de autenticidade do que do olhar humano ”, diz Sanchez.

Correa cita ferramentas como o UNITE, desenvolvido pelo Google e pela Universidade da Califórnia, e o L3DE, que analisam iluminação, coerência temporal e leis da física em vídeos. “ Talvez o olho humano não perceba, mas as máquinas ainda conseguirão identificar as falhas de outras máquinas ”, afirma.

Os riscos e a legislação brasileira

Os especialistas destacam que compartilhar vídeos falsos pode gerar consequências graves. “ Esses conteúdos podem ser usados para difamar pessoas, aplicar golpes e até interferir em eleições ”, alerta Correa.

No Brasil, o Tribunal Superior Eleitoral (TSE) já proíbe o uso de vídeos falsos ou manipulados por IA em campanhas e exige aviso visível em conteúdos gerados artificialmente. Também estão em tramitação projetos como o PL 2.630/2020, conhecido como “ PL das Fake News ”, e o PL 146/2024, que propõem punições mais severas para o uso de deepfakes com fins ilícitos.


Sanchez lembra que o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD) já permitem responsabilização civil e penal em casos de uso abusivo de IA.

Enquanto o uso da IA avança, o debate sobre transparência e responsabilidade digital ganha força. A identificação de vídeos falsos é hoje uma questão de segurança informacional e, em períodos eleitorais, um fator determinante para preservar a integridade do voto e da confiança pública nas instituições.