O que diz o novo regramento do TSE sobre IA na publicidade eleitoral?

  • Categoria do post:JOTA

Em ano de eleições municipais, chama a atenção a regulamentação promulgada pelo Tribunal Superior Eleitoral (TSE) acerca do uso da inteligência artificial (IA) na propaganda eleitoral. O assunto é controverso, e impacta uma multiplicidade de stakeholders do processo político, tais como administração pública, candidatos, eleitores e empresas de marketing eleitoral.

Dentre as 12 resoluções publicadas em fevereiro de 2024 sobre o tema, chama a atenção a Resolução 23.732, que altera a Resolução 23.610/2019 para regulamentar o uso da inteligência artificial para fins eleitorais. Dentre outras medidas, a resolução veda o uso de deepfakes, restringe o uso de chatbots em comunicações de campanha e impõe a utilização de rótulos de identificação de conteúdo sintético multimídia.

Como veremos, trata-se de um problema difundido mundialmente, com grande potencial de impacto sobre a integridade do processo democrático. No Brasil, é compreensível que a Justiça Eleitoral busque aumentar a transparência e a confiança no processo eleitoral, ao mesmo tempo em que procura mitigar os riscos associados à desinformação e à manipulação digital. São medidas essenciais para proteger a democracia contra práticas enganosas.

A desinformação não é um problema novo no ordenamento jurídico brasileiro, sendo tratado no âmbito eleitoral por diversos dispositivos legais, acordos de cooperação técnica[1] e iniciativas legislativas. A utilização de ferramentas de inteligência artificial, deepfake, dentre outras, contudo, é algo contemporâneo que deve vir a ser obstada, com fito de se efetivar a proteção da integridade eleitoral almejada pelo TSE.

O recrudescimento dessas medidas visa combater a desinformação e a proliferação de fake news, estratégias amplamente utilizadas em campanhas eleitorais anteriores, seja no Brasil, seja em ambiente internacional. Inegável, portanto, que diante de um ambiente eleitoral polarizado, tais medidas podem ser tidas como corretas. Eventuais abusos dos entes que atuarão nessa regulação, contudo, devem ser evitados, especialmente para se evitar o desvirtuamento do debate eleitoral do campo das ideias para o campo jurídico.

As medidas foram anunciadas pelo tribunal com grande otimismo. O objetivo declarado das inovações – combater o desvirtuamento da propaganda eleitoral e a utilização de IA para criar declarações falsas – é nobre, e sua implementação deve ser acompanhada de perto, com medidas claras de responsabilização em caso de sua violação, de forma a assegurar a transparência e integridade do processo democrático, bem como a proteção aos dados pessoais.

Um problema abrangente

O uso de IA e deepfakes para veiculação de desinformação tem prejudicado processos eleitorais no mundo todo. Łabuz e Nehring (2024) identificam pelo menos onze países com eleições agendadas em 2023 ou 2024 e que têm relatos de uso de deepfakes para fins eleitorais: Argentina, Bulgária, Eslováquia, EUA, França, Índia, Indonésia, Polônia, Reino Unido, Taiwan e Turquia.

Alguns casos chamam a atenção.

Nos EUA, um Political Action Committee lançou um chatbot de IA do candidato presidencial Dean Phillips. O robô operava no software ChatGPT, violando a proibição da OpenAI de uso de sua tecnologia por campanhas políticas. A empresa só suspendeu o ChatBot após denúncia do The Washington Post[2].

Na Eslováquia, durante as eleições de 2023, uma tentativa de manipulação com deepfakes ocorreu dois dias antes da votação. Um áudio deepfake surgiu nas mídias sociais, apresentando uma conversa falsa entre Michal Šimečka, candidato do partido liberal Progressive Slovakia, e a jornalista Monika Tódová. A conversa trazia à tona uma discussão sobre um suposto esquema para compra de votos a fim de fraudar a eleição. Dada a proximidade entre a data de divulgação do áudio e a data da eleição, o país teve grande dificuldade em combater a desinformação ou sequer identificar sua fonte.

Esses são apenas alguns exemplos. Łabuz e Nehring (2024) sugerem que os riscos eleitorais ocasionados pelos deepfakes são de difícil mensuração e se desenrolam em um contexto de deterioração da confiança pública no processo eleitoral, bem como desconfiança em relação aos meios de comunicação, a quaisquer informações e fatos, e mesmo desconfiança do conceito verdade. Para os autores, outra ameaça decorrente dos deepfakes é seu efeito psicológico. Eleitores, candidatos e jornalistas – confusos quanto à autenticidade das informações – teriam medo de não conseguir detectar e distinguir deepfakes de conteúdos autênticos, o que influenciará negativamente seu comportamento.

Esses efeitos políticos, éticos e psicológicos têm impacto avassalador. Para se ter uma ideia, um estudo do Integrity Institute[3] aponta que, no ano de 2024, 3,65 bilhões de pessoas em todo o mundo serão afetadas por eleições.

Regramento brasileiro sobre uso de IA na publicidade eleitoral

No Brasil, a preocupação com informações políticas falsas veiculadas em meio eletrônico é antiga, remontando ao advento das redes sociais no país.

Do ponto de vista jurídico, o tema encontra ecos no Marco Civil da Internet[4], de 2014, na Lei das Eleições[5], em seu art. 57-B incluído pela Lei 13.488/2017, na Lei Geral de Proteção de Dados[6], de 2018, no Código Eleitoral[7], de 1965, em seu art. 323, alterado pela Lei 14.192/2021. A infração desses dispositivos legais pode levar a responsabilização penal, civil, eleitoral ou administrativa, com possível sanção de detenção, multa, cassação do registro ou do mandato, além de determinação de remoção do conteúdo.

A Resolução 23.610/2019, alterada pela Resolução 23.732, é explícita em seus art. 9º, e 9º-B a -H ao versar sobre proibição das deepfakes; obrigação de aviso sobre o uso de IA na propaganda eleitoral; restrição do emprego de robôs para intermediar contato com o eleitor. Além disso, fica estabelecida a possibilidade de responsabilização dos provedores de aplicação (big techs) que não retirarem do ar conteúdos contendo desinformação em casos de risco específicos.

Além de casos específicos de remoção de conteúdo, a resolução dá perpetua o princípio do direito brasileiro de preservação da integridade do processo eleitoral, definido teoricamente como a necessidade de custódia da franqueza da disputa eleitoral, sem a qual se veria frustrado seu mote instrumental de legitimação (Alvim, 2015). No caso da inteligência artificial, a desinformação repercute profundamente sobre a integridade do processo democrático, enfatizando a verdadeira necessidade de se refletir sobre as implicações éticas da adoção dessa tecnologia.

Vale lembrar que, além do processo eleitoral, há amplo debate acerca da regulamentação da IA no Brasil, principalmente no âmbito do PL 2338/2023, atualmente pautada para deliberação na Comissão Temporária Interna sobre Inteligência Artificial no Brasil, incluindo emenda que dispõe que “os operadores de sistemas de IA de qualquer nível de risco que gerem conteúdos devem ter o conteúdo autenticado e a imposição de marca d’água para rotular claramente o conteúdo gerado por IA”. Essa emenda reforça o disposto pelo TSE em relação à obrigatoriedade de identificação de conteúdo produzido por inteligência artificial.

Além disso, é preciso refletir sobre a intercessão entre IA e proteção de dados, nos termos da LGPD. Uma vez que os algoritmos de IA demandam grandes volumes de dados para serem treinados, pode haver significativo impacto sobre dados pessoais, especialmente em aplicações de alto risco (Cyrineu e Melón, 2024). Dentre as aplicações de alto risco, inclui-se o processamento de dados demográficos para impulsionamento e direcionamento de propaganda eleitoral.

Assim, parece ser inegável a necessidade de se garantir um processo eleitoral justo e adequado, obstando-se a utilização de ferramentas, especialmente aquelas decorrentes do mundo digital, para fins de desvirtuamento do processo eleitoral.

Parece, contudo, que tais medidas também deveriam ser objeto de debate no ambiente legislativo e não somente de forma reativa pelo judiciário, especialmente em momentos eleitorais. A necessidade de se proceder à regulação das mídias digitais é premente, devendo-se buscar uma regulação que se amolde à realidade brasileira e não simplesmente reproduzindo alguma legislação estrangeira.

Deve-se, contudo, também, evitar os abusos daqueles entes que buscarão regulá-las, garantindo-se que a eleição seja um ambiente para um debate propositivo e construtivo e não restritivo de opiniões. Ainda assim, enquanto não houver uma evolução de responsabilidade moral dos candidatos que se aproveitam de tais falhas sistêmicas, o cenário continuará sendo de pessimismo, beligerância e polarização.

Conclusões

A regulamentação do uso da inteligência artificial na publicidade eleitoral pelo TSE representa, sim, significativo avanço para a preservação da integridade do processo eleitoral brasileiro. As medidas trazidas pela Resolução 23.732 são essenciais para o combate à desinformação e a garantia da transparência durante as campanhas eleitorais. A efetividade dessas regulamentações dependerá da fiscalização rigorosa e da responsabilização adequada em casos de infração, reforçando a importância da colaboração entre a Justiça Eleitoral, candidatos e provedores de serviços de tecnologia.

Ainda que se questione o locus de formação de tais normas, isto é, no TSE e não no legislativo, é inegável que estaríamos em uma situação mais desfavorável que a presente caso o tribunal eleitoral não tivesse agido e estabelecido parâmetros importantes e razoáveis para a utilização das mídias e ferramentas digitais.

Além disso, o cenário global ressalta a urgência na implementação dessas medidas, com exemplos de uso indevido de IA em campanhas eleitorais ao redor do mundo, impactando a confiança pública na democracia e nos meios de comunicação, com proliferação de fake news, falhas de legitimação política, e manipulação de comportamentos.

No Brasil, a harmonização entre as regulamentações promulgadas pelo TSE e normativos existentes, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD), conforma o arcabouço jurídico contra a desinformação. O arcabouço existe, e é preciso investigar de que forma seus mandamentos vêm sendo materializados no cotidiano político do país.

É imperativo refletir sobre implicações éticas mais amplas do uso da IA e a necessidade de sua regulamentação, assegurando que a tecnologia seja usada de maneira responsável e benéfica para a sociedade, protegendo tanto a privacidade dos dados pessoais quanto a integridade do processo democrático. Caso contrário, a descrença da população com seus eleitos e com o próprio ambiente democrático tenderá a se deteriorar.

[1] Em 12 de março de 2024, o TSE anunciou Acordos de cooperação técnica com o MPF, MJSP, Anatel e CFOAB para combate a desinformação. Ver: TRIBUNAL SUPERIOR ELEITORAL. TSE firma acordos para combater discursos de ódio, “deepfakes” e desinformação eleitoral. 2024. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Marco/tse-firma-acordos-para-combater-discursos-de-odio-deepfakes-e-desinformacao-eleitoral.

[2] The Washington Post. AI deepfakes threaten to upend global elections. No one can stop them. 2024. Disponível em: https://www.washingtonpost.com/technology/2024/04/23/ai-deepfake-election-2024-us-india/

[3] HARBATH, K. Khizanishvili A. Insights from Data: What the Numbers Tell Us About Elections and the Future of Democracy. 2024. Disponível em: https://integrityinstitute.org/blog/insights-from-data.

[4] Lei nº 12.965/2014

[5] Lei nº 9.504/1997

[6] Lei nº 13.709/2018

[7] Lei nº 4.737/1965

ALVIM, Frederico Franco. Integridade eleitoral: significado e critérios de qualificação. Revista Ballot, Rio de Janeiro, v. 1, n. 2, p. 213-228, set./dez. 2015.

CYRINEU, Rodrigo Terra; MELÓN, Renato. IA e deep fakes nas eleições: desafio da tecnologia à integridade eleitoral. 2024. Disponível em: https://www.conjur.com.br/2024-abr-15/ia-e-deep-fakes-nas-eleicoes-desafio-da-tecnologia-a-integridade-eleitoral-parte-1.

HARBATH, K. Khizanishvili A. Insights from Data: What the Numbers Tell Us About Elections and the Future of Democracy. 2024. Disponível em: https://integrityinstitute.org/blog/insights-from-data.

ŁABUZ, Mateusz; NEHRING, Christopher. On the way to deep fake democracy? Deep fakes in election campaigns in 2023. European Political Science, p. 1-20, 2024.

THE WASHINGTON POST. AI deepfakes threaten to upend global elections. No one can stop them. 2024. Disponível em: https://www.washingtonpost.com/technology/2024/04/23/ai-deepfake-election-2024-us-india/.

TRIBUNAL SUPERIOR ELEITORAL. TSE firma acordos para combater discursos de ódio, “deepfakes” e desinformação eleitoral. 2024. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Marco/tse-firma-acordos-para-combater-discursos-de-odio-deepfakes-e-desinformacao-eleitoral.