A Resolução TSE nº 23.732/2024 inaugurou um novo modelo de regulação da propaganda eleitoral digital no Brasil. Ao impor às plataformas digitais obrigações de mitigação de riscos e transparência, especialmente diante do uso crescente de inteligência artificial (IA) nas campanhas eleitorais, o Tribunal Superior Eleitoral sinaliza um caminho de corregulação responsável — inspirado em marcos legais como o Digital Services Act (DSA). Mas os desafios de implementação, fiscalização e consolidação institucional permanecem grandes. Este artigo dialoga com as pesquisas em andamento no Laboratório de Governança e Regulação de Inteligência Artificial (LIA), vinculado ao Centro de Direito, Internet e Sociedade (CEDIS) do IDP.[1]
Por que a IA mudou o jogo nas campanhas eleitorais?
O uso de IA nas eleições não é mais uma possibilidade futura — é uma realidade com impactos profundos. Ferramentas como deepfakes[2], bots de engajamento, avatares, chatbots, perfilamento, microdirecionamento e sistemas de recomendação algorítmica já são empregadas para moldar artificialmente a opinião pública, amplificar a desinformação e distorcer o debate democrático.[3]
Como destacou um recente editorial do Jornal O Globo, robôs conversacionais baseados em IA são capazes de interagir de forma personalizada com eleitores e influenciar diretamente suas escolhas políticas.[4] Diferentemente das estratégias tradicionais de desinformação em massa, esses sistemas operam por meio de diálogos individualizados, explorando vieses cognitivos, emoções e preferências pessoais, fragilizando a autonomia do eleitor, o que dificulta sua detecção e fiscalização.
Esses novos fenômenos pressionam o direito eleitoral a evoluir rapidamente. A edição da Resolução TSE nº 23.732/2024, que alterou a Resolução TSE nº 23.610/2019, representou uma resposta institucional às novas dinâmicas na propaganda eleitoral digital. A resolução de 2024 introduz, de forma inédita, obrigações preventivas às plataformas digitais e inaugura um modelo regulatório voltado à preservação da lisura do processo eleitoral. Ainda assim, os desafios para sua implementação efetiva, fiscalização técnica e fortalecimento das capacidades institucionais permanecem significativos.
O que muda para as plataformas com o dever de cuidado
Um dos principais pilares da resolução do TSE é a introdução do dever jurídico de cuidado para as plataformas digitais. Isso significa que empresas como Google, X, Meta, TikTok e outras — ao atuarem como mediadoras da esfera pública digital — devem adotar medidas proativas para prevenir práticas ilícitas, como o impulsionamento irregular de conteúdo político-eleitoral e o uso de técnicas de desinformação eleitoral. O artigo 9º-D da norma estabelece esse novo regime, combinando funcionalidade preventiva, deveres de transparência e mitigação de riscos sistêmicos. Trata-se de uma virada de chave: as plataformas passam a ser corresponsáveis por proteger a integridade do ambiente digital eleitoral.
O dever de cuidado dialoga com o princípio da função social das empresas — já consagrado no direito brasileiro — e com precedentes do STF que reconhecem a diligência proativa das plataformas diante da disseminação de conteúdos ilícitos graves.[5] Além disso, é preciso compreender que o dever de cuidado, nos termos propostos pela Resolução do TSE, implica uma responsabilidade qualificada. Trata-se de uma obrigação que vai além da neutralidade técnica ou da simples observância de ordens judiciais: exige uma conduta ativa, proporcional e transparente diante de riscos previsíveis.
O que funcionou (e o que falhou) nas eleições de 2024
As eleições municipais de 2024 serviram como laboratório inicial para as novas regras. Houve avanços importantes: as plataformas firmaram acordos com o TSE para cooperação técnica; foram implementadas rotulagens para conteúdos com uso de IA; a comunicação institucional manteve campanhas de conscientização sobre desinformação.
Mas também houve desafios importantes. A rastreabilidade e a transparência dos anúncios político-eleitorais ainda são insuficientes e a Justiça Eleitoral enfrenta dificuldades técnicas para fiscalizar sistemas algorítmicos opacos e conteúdos que minam a confiança e a legitimidade do processo eleitoral, bem como impulsionamentos de propaganda ilícitos. Contata-se uma grande dependência das plataformas para produzir dados e relatórios, o que limita o controle público.
Como consolidar uma governança digital democrática consonante com os desafios previstos para as eleições de 2026?
A efetividade da regulação da IA e das plataformas digitais na esfera eleitoral exige medidas estruturantes e procedimentais. Esse contexto revela a necessidade de aprimorar os instrumentos de cooperação institucional e de corregulação, a fim de garantir a efetividade da proteção da integridade informacional sem ultrapassar os limites legítimos da atuação estatal.
Com a adoção de relatórios públicos, auditorias independentes e critérios objetivos de governança, a corregulação deixa de se limitar a um acordo meramente declaratório e passa a compor o núcleo do enforcement democrático, convertendo a interação entre o Estado e as plataformas em manifestação concreta dos princípios da publicidade e da responsabilidade administrativa.
A seguir, propomos seis eixos para consolidar o modelo brasileiro:
- a) a regulamentação do art. 9º-D da Resolução TSE nº 23.732/2024 pelo TSE, detalhando critérios objetivos de proporcionalidade e mitigação, com diferenciação por porte e escopo das plataformas;
- b) a criação de um canal público permanente de transparência eleitoral, com dados sobre impulsionamento, IA, moderação e políticas de integridade;
- c) a exigência de relatórios públicos de impacto algorítmico, antes e depois do período eleitoral, com análise técnica independente e padronização metodológica;
- d) a definição de padrões mínimos de rotulagem para conteúdos gerados por IA, com linguagem acessível e rastreabilidade clara;
- e) a viabilização de auditorias externas nos sistemas de recomendação e publicidade das grandes plataformas, com acesso controlado pelo TSE e/ou por consórcios técnico-acadêmicos;
- f) o aperfeiçoamento do poder de polícia da Justiça Eleitoral no âmbito da propaganda eleitoral digital.
Esses eixos dialogam com os achados preliminares da pesquisa do LIA, que vem explorando o conceito de regulação responsiva e informacional da democracia, voltada à preservação do pluralismo e da integridade do debate público digital.
Conclusão: um dever de cuidado que precisa sair do papel
Técnicas de desinformação eleitoral, como o uso de deepfakes, campanhas coordenadas de descontextualização e perfis inautênticos automatizados, representam formas de manipulação da integridade informacional, ao falsearem o contexto, fabricarem consensos artificiais e fragilizarem o espaço deliberativo democrático.
O dever de cuidado das plataformas digitais deve ser compreendido como um instrumento jurídico de proteção da democracia, especialmente em tempos de desinformação automatizada. Trata-se de uma responsabilidade qualificada, que impõe condutas preventivas mesmo diante de conteúdos produzidos por terceiros.
Consolidar esse dever exige mais do que normas: requer capacidade institucional, colaboração com a sociedade civil e instrumentos técnicos de fiscalização algorítmica. A Resolução do TSE é um ponto de partida promissor, mas sua efetividade dependerá da construção de uma arquitetura de governança que combine transparência, proporcionalidade e accountability.
No Brasil, experiências anteriores da Justiça Eleitoral com a fiscalização do impulsionamento ilícito de propaganda político-eleitoral e o combate à desinformação revelam tanto os limites da atuação judicial quanto o seu potencial de liderança normativa. Nesse sentido, a consolidação do dever de cuidado deve ser acompanhada da construção de capacidades institucionais permanentes — como estruturas técnicas e laboratórios de análise — que permitam à Justiça Eleitoral interpretar e aplicar o novo regime à altura dos desafios da era algorítmica.
[1] O relatório da pesquisa será publicado até o início do mês de janeiro de 2026 no site do LIA: https://www.idp.edu.br/lia-idp/
[2] JUNQUILHO, Tainá Aguiar; SILVEIRA, Marilda de Paula; FERREIRA, Lucia Maria Teixeira; MENDES, Laura Schertel; OLIVEIRA, André Gualtieri de. (org.). Construindo consensos: deep fakes nas eleições de 2024 relatório das decisões dos TREs sobre deep fakes. Brasília: Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa: Laboratório de Governança e Regulação de Inteligência Artificial, 2024, E-book.
[3] FERREIRA, Lucia Maria Teixeira. A dimensão objetiva do direito fundamental à proteção de dados pessoais: perfilamento e microdirecionamento de propaganda político-eleitoral digital por provedores de aplicação de internet. Rio de Janeiro: Lumen Juris, 2025.
[4] EDITORIAL. TSE precisa prestar atenção a robôs de IA que convencem eleitor a mudar voto. 09 dez. 2025. Disponível em: https://oglobo.globo.com/opiniao/editorial/coluna/2025/12/tse-precisa-prestar-atencao-a-robos-de-ia-que-convencem-eleitor-a-mudar-voto.ghtml. Acesso em 12 dez. 2025.
[5] Esse novo modelo regulatório foi bastante citado pelos Ministros do STF durante o julgamento dos Recursos Extraordinários nº 1.037.396 (Tema 987) e nº 1.057.258 (Tema 533), em que a Corte reconheceu a inconstitucionalidade parcial e progressiva do art. 19 do Marco Civil da Internet e estabelecer que a tese de repercussão geral não se aplica ao âmbito do direito eleitoral, que permanece regido por disciplina normativa própria, notadamente a legislação eleitoral e os atos normativos expedidos pelo Tribunal Superior Eleitoral.