Da urna ao algoritmo: lições de 2024 para enfrentar as deepfakes em 2026

  • Categoria do post:JOTA

Daqui a um ano, o Brasil estará em plena efervescência política, às vésperas de mais uma disputa presidencial. Além do comando do Palácio do Planalto, estarão em jogo os governos estaduais, as cadeiras no Congresso Nacional e nas assembleias legislativas.

O embate nas urnas será marcado por um poderoso ingrediente: a inteligência artificial generativa. Será a primeira eleição presidencial no país desde a popularização das ferramentas de IA, e as consequências disso para o debate público e a integridade da informação devem ser levadas em conta desde já.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

As eleições municipais de 2024, que envolveram mais de 5.500 cidades brasileiras, funcionaram como um laboratório antecipado dos riscos e dilemas trazidos pela IA nas campanhas. Naquele ano, o Tribunal Superior Eleitoral (TSE) deu um passo inédito ao aprovar a Resolução 23.732, um marco regulatório que incluiu, pela primeira vez, regras específicas para o uso de inteligência artificial em campanhas políticas.

A norma proibiu expressamente o uso de deepfakes — conteúdos em áudio, imagem ou vídeo gerados por IA para que se pareçam reais, geralmente para simular falas, gestos ou comportamentos. O descumprimento das regras poderia levar à remoção do conteúdo e, em casos mais graves, à cassação do registro ou até do mandato do candidato envolvido, caso eleito. A resolução permitiu apenas o uso de IA para ajustes técnicos, como melhorias de fotografias de campanha (que devem ser sinalizadas ao público).

No contexto global, o país se destacou ao adotar uma das primeiras regulamentações eleitorais focadas em IA. Mais de 80 nações passaram por eleições em 2024, e poucas enfrentaram o desafio com tanta ênfase na governança digital e na integridade informacional quanto o Brasil, que, nos últimos anos, vem liderando debates internacionais sobre regulação de plataformas, combate à desinformação e direitos digitais.

As experiências e os aprendizados de 2024, portanto, não apenas iluminam os caminhos da próxima eleição nacional, mas também apontam para a necessidade urgente de aprimorar a resolução, fortalecer mecanismos de fiscalização e preparar tanto as instituições quanto os cidadãos para o novo campo de batalha da desinformação digital.

As deepfakes de 2024

Em 2024, o Digital Forensic Research Lab (DFRLab), do think tank Atlantic Council, mapeou alguns dos impactos da IA generativa nas eleições, acompanhando sistematicamente se ela seria uma ameaça para o processo eleitoral e os efeitos da resolução do TSE.

A pesquisa foi feita entre 1º de maio e 27 de outubro, período que abrangeu a pré-campanha e as campanhas para o primeiro e o segundo turnos. 

Comentários de internautas e discussões online sobre dúvidas com relação à origem de conteúdos foram alguns dos métodos usados, que também englobaram o monitoramento de grupos públicos sobre política no WhatsApp, de anúncios políticos publicados nas plataformas da Meta e de redes sociais de candidatos a prefeitos nas capitais do Brasil,  além de publicações em sites de notícias e blogs.

Ao final, foram identificados 78 casos de conteúdos confirmados ou alegadamente criados por meio de IA. Cerca de 80% desses casos se encaixaram em pelo menos uma das seguintes categorias:

  • Deepfakes pornográficos, nos quais candidatas mulheres apareciam nuas ou em poses sensuais em imagens fabricadas;
  • Manipulações que associavam falsamente candidatos a crimes como corrupção ou suborno;
  • Imitações de jornalistas e reportagens de televisão falsas contra candidatos;
  • Apropriação indevida da imagem de políticos conhecidos, como o presidente Luiz Inácio Lula da Silva ou o ex-presidente Jair Bolsonaro, em falsas demonstrações de apoio ou ataque a um candidato;
  • Conteúdos manipulados sobre eventos políticos, como datas de comícios ou número de partidos na urna; e
  • Deepfakes satíricos que, apesar da intenção humorística, confundiam o eleitorado.

O levantamento evidenciou a ausência de metodologias consolidadas e ferramentas específicas para rastrear conteúdos sintéticos e monitorar redes sociais de forma eficaz. Os limites técnicos, porém, não são a única brecha: há também questões conceituais e jurídicas da atual regulamentação.

Uma das constatações mais evidentes foi a confusão generalizada — tanto entre eleitores quanto entre operadores da Justiça Eleitoral — sobre o que realmente configura uma deepfake.

Em muitos casos, montagens simples, feitas com softwares tradicionais, foram rotuladas como se fossem produções complexas com uso de IA. A imprecisão no uso do termo foi explorada por campanhas eleitorais: ora para se proteger de críticas legítimas, ora para reforçar estratégias de vitimização política. Assim, deepfake passou a ser um sinônimo genérico de fake news, o que compromete a aplicação da norma e distorce o debate público.

Em Gravataí (RS), por exemplo, o candidato a vereador Paulo Silveira foi acusado de publicar uma suposta deepfake, em que o prefeito Luiz Zaffalon e seu vice, Levi Melo, apareciam com rostos sobrepostos a personagens palhaços, acompanhados de críticas ao sistema de saúde local.

Inicialmente, a juíza Valéria Eugênia Neves Wilhelm determinou a remoção da imagem, mas, em decisão posterior, o juiz Régis Pedrosa Barros rejeitou a acusação, classificando o conteúdo como uma montagem de mau gosto, porém sem qualquer uso de inteligência artificial.

O episódio evidenciou as dificuldades de interpretação e aplicação da norma, especialmente diante da ausência de mecanismos técnicos oficiais de verificação.

Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA

Outro ponto crítico identificado na pesquisa é o escopo limitado da resolução. As regras se aplicam exclusivamente a candidatos, partidos e coligações, deixando de fora conteúdos produzidos por apoiadores ou terceiros — agentes que, no ambiente digital descentralizado, também exercem grande influência e podem contribuir para a propagação de desinformação com igual ou maior impacto.

O que podemos fazer em 2026?

Apesar das limitações, a resolução representa um avanço importante ao reconhecer os riscos representados pelo uso indiscriminado da inteligência artificial nas campanhas eleitorais e ao estabelecer parâmetros mínimos de transparência.

Sua eficácia, porém, depende diretamente da capacidade institucional de interpretá-la corretamente, fiscalizá-la com rigor e promover a educação midiática entre os responsáveis por aplicá-la.

É fundamental investir em formação técnica e no desenvolvimento de ferramentas amplamente acessíveis de detecção confiáveis. Sem esses recursos, a IA continuará sendo usada não apenas para enganar eleitores, mas também como instrumento retórico para confundir o debate e deslegitimar adversários.

O desafio está lançado para 2026: regulamentar é essencial, mas, de forma isolada, é insuficiente. Proteger a integridade eleitoral no século XXI exigirá preparo técnico, responsabilidade institucional e uma sociedade mais consciente sobre os riscos e os usos da tecnologia na política.