Inteligência artificial é utilizada na produção de conteúdos falsos
De golpes a manipulações políticas, as deepfakes transformaram-se em ferramentas de desinformação
Postado em 23/06/2025
A disseminação de conteúdos audiovisuais hiper-realistas produzidos por inteligência artificial emergiu como um dos principais desafios para a segurança digital no país. Esses materiais, conhecidos como deepfakes, são utilizados em golpes financeiros e manipulações políticas, confundindo milhões de usuários e pressionando o sistema legal a reagir rapidamente.

Brasil se torna terreno fértil para vídeos falsos
Casos recentes ilustram essa ameaça. Um vídeo falso do apresentador Marcos Mion circulou nas redes, promovendo uma promoção inexistente, enquanto imagens manipuladas de celebridades passaram a ser usadas para vender produtos sem eficácia comprovada. Além disso, candidatas políticas relataram ataques com conteúdo pornográfico falso durante as eleições municipais de 2024, exemplificando como as deepfakes são usadas para violência de gênero e manipulação política.
Deepfakes são conteúdos digitais — geralmente vídeos ou áudios — criados com ferramentas de inteligência artificial capazes de imitar, com alto grau de realismo, a aparência ou a voz de uma pessoa. No Brasil, a popularização de aplicativos e softwares gratuitos torna essa prática ainda mais acessível, dificultando a detecção, sobretudo entre quem não possui familiaridade com recursos técnicos de verificação.
Especialistas pedem resposta rápida e educação midiática
Segundo Lucas Mendonça, pesquisador em Direito Digital e professor na Universidade de Brasília (UnB), o avanço das deepfakes exige uma resposta rápida e coordenada entre sociedade, governo e plataformas. “A proliferação das deepfakes no Brasil evidencia uma fragilidade histórica na nossa cultura de verificação de informações. Com as ferramentas atuais, qualquer pessoa consegue criar vídeos extremamente realistas em poucos minutos, e a população ainda não possui o letramento midiático necessário para identificar esses conteúdos. O risco é potencializado em momentos como eleições, quando a desinformação pode comprometer a democracia. É fundamental fortalecer a legislação, mas também investir em educação digital e na responsabilização das plataformas”, destaca Lucas.
“As deepfakes representam uma ameaça concreta à segurança informacional e à privacidade das pessoas. O risco não está apenas no impacto político, mas também na possibilidade de fraudes financeiras, extorsões e danos à reputação. É fundamental que, além da regulação, as plataformas adotem mecanismos de detecção mais robustos e transparentes. Não podemos terceirizar toda a responsabilidade ao usuário; é preciso criar barreiras técnicas eficazes para conter a propagação desses conteúdos falsos”, avalia Rafael Zanatta, diretor da Associação Data Privacy Brasil de Pesquisa.

Medidas legais e regulamentações em curso
Em resposta ao crescente uso de deepfakes para disseminar desinformação, o Brasil implementou medidas legais e regulamentares significativas. Em abril de 2025, foi sancionada a Lei nº 15.123/2025, que altera o Código Penal para aumentar em até 50% a pena de seis meses a dois anos de prisão, além de multa, para o crime de violência psicológica contra a mulher quando cometido com o uso de inteligência artificial ou recursos tecnológicos que alterem a imagem ou som da vítima. A legislação visa coibir práticas como a criação de conteúdos falsos que causem dano emocional às mulheres.
Paralelamente, o Tribunal Superior Eleitoral (TSE) aprovou, em fevereiro de 2024, uma resolução que regulamenta o uso de inteligência artificial nas campanhas eleitorais. A norma proíbe expressamente o uso de deepfakes na propaganda eleitoral, definindo-os como conteúdos sintéticos em áudio ou vídeo, gerados ou manipulados digitalmente, para criar, substituir ou alterar a imagem ou voz de pessoas. A resolução também estabelece a obrigatoriedade de aviso explícito sobre o uso de IA em propagandas e responsabiliza civil e administrativamente as plataformas digitais que não removerem imediatamente conteúdos falsos ou desinformativos durante o período eleitoral.
Além disso, em fevereiro de 2025, a Câmara dos Deputados aprovou o Projeto de Lei nº 3.821/2024, que inclui no Código Penal o crime de manipulação, produção ou divulgação de conteúdos de nudez ou atos sexuais gerados por tecnologia de inteligência artificial e outros meios tecnológicos. O projeto visa proteger a intimidade e a honra das vítimas, especialmente mulheres, contra a disseminação de deepfakes pornográficos.
Quando a realidade é distorcida: o caminho da denúncia ao julgamento
Ao identificar um conteúdo suspeito de ser um deepfake — seja por meio de características visuais ou auditivas incomuns —, o primeiro passo é reunir evidências. Isso inclui capturas de tela, links e qualquer informação que comprove a disseminação do material. Essas provas são essenciais para embasar denúncias e ações legais.
As denúncias podem ser feitas por meio das próprias plataformas digitais, como YouTube, Facebook e Instagram, que possuem mecanismos específicos para reportar conteúdos falsos. Além disso, organizações como a SaferNet Brasil oferecem canais seguros e anônimos para denúncias de crimes digitais, trabalhando em parceria com o Ministério Público Federal.

Após a denúncia, as autoridades competentes iniciam investigações para identificar os responsáveis pela criação e disseminação do deepfake. O tempo para a resolução desses casos pode variar significativamente, dependendo da complexidade do conteúdo e da cooperação das plataformas envolvidas. Em alguns casos, medidas legais podem ser tomadas para remover o conteúdo e responsabilizar os infratores.
Um exemplo prático ocorreu em Costa Rica, Mato Grosso do Sul, onde um candidato à prefeitura foi condenado a pagar R$ 10 mil por divulgar um deepfake contra seu oponente político durante as eleições municipais de 2024.
“As deepfakes representam um ponto de inflexão na forma como lidamos com desinformação digital. O que antes era limitado à manipulação textual agora envolve imagem, voz, identidade. O problema é que a legislação brasileira — embora avance — ainda não dá conta da velocidade com que essas tecnologias evoluem. Não existe hoje um protocolo claro e unificado para investigação de deepfakes no país: tudo depende da denúncia individual, da capacidade técnica dos peritos e da boa vontade das plataformas. Em casos graves, os danos já estão consolidados quando as medidas começam a ser tomadas. É preciso pensar em políticas públicas integradas que envolvam educação digital, responsabilização legal e investimento em ferramentas de detecção automatizada. Sem isso, corremos o risco de institucionalizar a mentira como estratégia social e política.”
— Lucas Ávila, advogado especialista em proteção de dados e direito digital, com atuação em Brasília