Riscos sistêmicos e o desafio das plataformas no período eleitoral

  • Categoria do post:JOTA

O papel das plataformas digitais na propagação de informações durante o período eleitoral tem gerado debates importantes sobre a responsabilidade dessas empresas na contenção de conteúdos potencialmente prejudiciais à integridade do processo eleitoral. No Brasil, a Resolução nº 23.610/2019 do Tribunal Superior Eleitoral (TSE) estabelece um regime de responsabilidade que impõe aos provedores a indisponibilização imediata de conteúdos e contas em casos de risco sistêmico[1].

No entanto, ao observarmos as regulamentações internacionais, como o Digital Services Act (DSA) da União Europeia, percebemos uma abordagem distinta, centrada na mitigação de riscos sistêmicos e na diligência das plataformas.

Definição de riscos sistêmicos no DSA

O conceito de riscos sistêmicos tem sido um pilar central na regulação das grandes plataformas digitais no âmbito internacional, como ilustrado no DSA. Contudo, o conceito se originou anteriormente no Ruggie framework on Business and Human Rights, que visa auxiliar na identificação de potenciais riscos de violações de direitos humanos decorrentes das atividades de empresas e seus clientes corporativos.

Esse framework introduziu a ideia de que as empresas têm a responsabilidade de mitigar e remediar os impactos negativos sobre os direitos humanos resultantes de suas operações, estabelecendo um modelo de due diligence contínua para a gestão de riscos.

Na mesma linha, o DSA impôs às Very Large Online Platforms (VLOPs) e aos Very Large Online Search Engines (VLOSEs) a obrigação de realizar avaliações regulares dos riscos que suas atividades podem representar para a sociedade e, em seguida, tomar medidas adequadas para mitigar esses riscos.

Segundo a normativa, esses riscos podem ser agrupados em quatro categorias principais conforme o seu artigo 34:

Disseminação de conteúdo ilegal, como material de abuso sexual infantil, discurso de ódio ilegal, ou outros tipos de uso indevido dos serviços para crimes;
Efeitos prejudiciais aos direitos fundamentais, como a dignidade humana, liberdade de expressão e informação, privacidade, proteção de dados, não discriminação e direitos da criança e do consumidor;
Impactos sobre processos democráticos, discurso cívico e segurança pública, especialmente em períodos eleitorais; e
Riscos relacionados à violência de gênero, proteção de menores e o bem-estar físico e mental dos indivíduos.

Esses critérios ampliam a responsabilidade das plataformas para além da simples remoção de conteúdo, exigindo delas uma avaliação contínua e preventiva dos riscos. De acordo com a normativa no seu artigo 35, isso inclui ajustes no design dos serviços, adaptação dos termos e condições, modificações nos processos de moderação de conteúdo, testes de sistemas algorítmicos e iniciativas específicas para proteger grupos vulneráveis, como crianças e vítimas de violência de gênero[2].

Tenha acesso ao JOTA PRO Poder, uma plataforma de monitoramento político com informações de bastidores que oferece mais transparência e previsibilidade para empresas. Conheça!

A abordagem brasileira

No Brasil, o conceito de risco sistêmico foi introduzido pelo Projeto de Lei nº 2630/2020, que dedica uma seção específica às “obrigações de análise e atenuação de riscos sistêmicos”.

De acordo com o artigo 7, parágrafo 2, do PL, as plataformas digitais serão obrigadas a identificar, analisar e avaliar os riscos sistêmicos de seus serviços e sistemas algorítmicos anualmente, e sempre que novas funcionalidades com impacto significativo forem implementadas.

Esses riscos incluem: difusão de conteúdos ilícitos; a garantia e promoção do direito à liberdade de expressão, de informação e de imprensa e ao pluralismo dos meios de comunicação social; relativos à violência contra a mulher, ao racismo, à proteção da saúde pública, a crianças e adolescentes, idosos, e aqueles com consequências negativas graves para o bem-estar físico e mental da pessoa; proteção do Estado Democrático de Direito e a integridade dos processos eleitorais; e os efeitos de discriminação ilegal ou abusiva em decorrência do uso de dados pessoais sensíveis ou de impactos desproporcionais em razão de características pessoais[3].

Após a detecção dos riscos sistêmicos, o PL exige que as plataformas adotem medidas proporcionais, razoáveis e eficazes para mitigar esses riscos. O artigo 8 do PL prevê medidas como: a adaptação da concepção e funcionamento dos serviços; adaptação dos termos de uso e os critérios e métodos de aplicação; ajustes nos processos de moderação de conteúdos; testes e adaptações os sistemas algorítmicos; reforço dos processos internos de supervisão; e adaptação da interface para proteger os direitos de crianças e adolescentes[4].

Por outro lado, a Resolução nº 23.610/2019, especialmente através do artigo 9º-E, impõe uma responsabilidade solidária civil e administrativa aos provedores de aplicação que não removam de forma imediata conteúdos que representem “casos de risco” durante o período eleitoral.

Esses casos incluem a disseminação de atos antidemocráticos, como violação de dispositivos do Código Penal relacionados à abolição do Estado Democrático de Direito, a divulgação de informações inverídicas ou gravemente descontextualizadas que afetem a integridade do processo eleitoral, ameaças ou incitação à violência contra membros da Justiça Eleitoral e do Ministério Público Eleitoral, além de discursos de ódio baseados em preconceitos de origem, raça, sexo, religião, entre outros.

Portanto, enquanto o PL 2630 segue uma abordagem processual, onde as plataformas devem tomar medidas adequadas para mitigar os riscos, a Resolução nº 23.610/2019 do TSE adota uma responsabilidade baseada no resultado final, ou seja, na remoção imediata do conteúdo. Isso significa que a responsabilidade da plataforma não depende de sua capacidade de avaliar os riscos ou de adotar medidas preventivas; se o conteúdo não for removido imediatamente, a plataforma será responsabilizada, independentemente das melhores práticas que possa ter adotado.

Inscreva-se no canal de notícias do JOTA no WhatsApp e fique por dentro das principais discussões do país!

As implicações para o contexto eleitoral brasileiro

A abordagem adotada pelo TSE reflete uma preocupação com a preservação da integridade do processo eleitoral, dada a velocidade com que desinformações e conteúdos prejudiciais podem se espalhar nas redes sociais. Entretanto, a exigência de remoção imediata pode representar um desafio técnico para as plataformas, especialmente em casos onde a identificação de conteúdos que violam as normas é subjetiva e complexa. A responsabilidade baseada no resultado final pode levar a um cenário de overblocking (remoção excessiva de conteúdos) prejudicando o debate público legítimo e limitando a liberdade de expressão.

Por outro lado, a abordagem de mitigação de riscos adotada por legislações internacionais como o DSA e anteriormente prevista no PL 2630, embora mais processual e voltada à avaliação contínua dos riscos, também apresenta desafios. A análise de riscos exige recursos sofisticados e pode não ser tão eficaz em contextos onde a rapidez na remoção de conteúdos é essencial, como em períodos eleitorais.

Uma forma de fortalecer essa análise seria envolver a sociedade civil e especialistas em um processo colaborativo para identificar os principais riscos de forma abrangente e sem vieses. Isso poderia ser feito, por exemplo, através da criação de grupos de trabalho ou observatórios eleitorais multidisciplinares, encarregados de realizar análises contínuas e emitir alertas precoces sobre riscos sistêmicos.

[1] Confira mais informações sobre a atuação do TSE sobre a desinformação e suas resoluções no volume 1 e no volume 2 da Cartilha publicadas pelo Centro de Tecnologia e Sociedade (CTS) da FGV Direito Rio.

[2] EUROPEAN UNION. Regulation (EU) 2022/2065 of the European Parliament and of the Council. Digital Services Act. 19 de outubro de 2022. Disponível em: https://eur-lex.europa.eu/eli/reg/2022/2065/oj. Acesso em: 24 set. 2024.

[3]  BRASIL. Projeto de Lei nº 2630, de 2023. Disponível em:https://images.jota.info/wp-content/uploads/2024/10/ultima-versao-pl-2630-2020-fake-news-2023-jota.pdf . Acesso em: 22 out. 2024.

[4] BRASIL. Projeto de Lei nº 2630, de 2023. Disponível em: https://images.jota.info/wp-content/uploads/2024/10/ultima-versao-pl-2630-2020-fake-news-2023-jota.pdf. Acesso em: 22 out. 2024.