O Supremo e o Marco Civil da Internet

  • Categoria do post:JOTA

Depois de anos de debate público, meses de intervalo e diversas sessões de julgamento, se aproxima o momento da conclusão da análise, pelo Supremo Tribunal Federal, do regime de responsabilidade das plataformas digitais, regido pelo Marco Civil da Internet[1]. Como amplamente noticiado, o Tribunal já formou maioria para alterar o regime de responsabilidade das plataformas por conteúdo produzido por terceiros. Foram sete votos no sentido de tornar o regime do art. 19 do MCI[2] – que isentava as plataformas de responsabilidade pelo conteúdo produzido por terceiros, exceto se falhassem em obedecer a uma ordem judicial de retirada – a exceção, e o regime do art. 21 do MCI[3] – que prevê a responsabilidade subsidiária das plataformas se não retirarem do ar o conteúdo danoso após simples notificação do usuário – a regra. A única divergência anotada até o momento veio do Ministro André Mendonça, que pretendia manter o regime do art. 19 como regra geral, isentando as plataformas.

Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA

Ainda faltam votar os Ministros Edson Fachin, Nunes Marques e Cármen Lúcia, que devem se manifestar na sessão do dia 25 de junho, quando o tema voltará à pauta do plenário. Mas independentemente dos votos dos Ministros, quer acompanhem as correntes já estabelecidas, quer proponham novos arranjos ainda não debatidos para o regime de responsabilidade das plataformas, o Supremo precisará, como já reconheceram os Ministros na última sessão, encontrar consenso entre as correntes que formam a maioria.

Os sete votos já proferidos em prol da corrente majoritária, pelos relatores dos dois Recursos Extraordinários em julgamento[4], Ministros Dias Toffoli e Luiz Fux, e pelos Ministros Luís Roberto Barroso, Flávio Dino, Cristiano Zanin, Gilmar Mendes e Alexandre de Moraes, convergem e divergem em diferentes pontos. Se tivéssemos que resumir os pontos de relativa convergência (ou de maioria dentro da maioria) entre eles, o novo regime de responsabilidade das plataformas digitais ficaria mais ou menos assim:

a) o regime do art. 19, que isenta as plataformas de responsabilidade exceto pelo descumprimento de ordem judicial, deixa de ser regra e se torna exceção, aplicável apenas aos casos de potenciais crimes contra a honra (ponto de maior convergência) e conteúdos jornalísticos (para alguns dos Ministros na maioria, apenas);

b) o regime do art. 21, em que as plataformas serão responsabilizadas se não retirarem o conteúdo após simples notificação do usuário, se torna a regra geral;

c) o conteúdo impulsionado pelas plataformas será colocado em um regime especial de responsabilidade, que não dependerá nem de notificação, nem de ordem judicial para retirada;

d) alguns conteúdos especialmente danosos – e aqui cada voto traz um rol diferente, com algumas convergências – serão também submetidos a um regime especial de responsabilidade, impondo às plataformas o que alguns Ministros estão chamando de dever de cuidado, e outros de monitoramento ativo. As plataformas também poderão ser responsabilizadas pelo dano causado por esses conteúdos mesmo sem descumprir notificação de retirada ou ordem judicial.

Outros pontos são objeto de ainda maior divergência do que as variações entre os votos no tratamento dessas regras gerais. Alguns dos Ministros na maioria propõem um regime diferenciado de responsabilidade para os marketplaces, as plataformas de compras e vendas realizadas pelos usuários. Nos casos mais extensivos, pretendem que a responsabilidade dessas plataformas pela comercialização de produtos ilícitos seja objetiva, como defendeu o Ministro Alexandre de Moraes em seu voto.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Outro ponto de convergência divergente entre os votos está no órgão ou entidade que será responsável por fiscalizar as plataformas quanto aos seus novos deveres de controle de conteúdo e de respeito aos direitos dos usuários. Academicamente o Ministro Barroso já defendeu que essa fiscalização deve ser realizada por um comitê independente, criado para esse propósito, e formado majoritariamente por representantes da iniciativa privada[5]. Outros Ministros, em seus votos, defenderam que essa responsabilidade seja conferida a órgãos públicos, ao menos até que o Congresso legisle sobre a matéria, e uma entidade específica seja criada. O Ministro Flávio Dino defendeu que a Procuradoria-Geral da República fique responsável pela fiscalização, enquanto o Ministro Gilmar Mendes sugeriu que a incumbência fique a cargo da Autoridade Nacional de Proteção de Dados, a ANPD.

O Ministro Alexandre de Moraes, por sua vez, defendeu que a fiscalização siga o modelo do Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia, criado durante a sua gestão como Presidente do Tribunal Superior Eleitoral – TSE[6]. O CIEDDE é composto por autoridades representantes do próprio TSE, da Procuradoria-Geral da República, do Ministério da Justiça e Segurança Pública, do Conselho Federal da Ordem dos Advogados do Brasil e da Agência Nacional de Telecomunicações, e prevê ainda a possibilidade de inclusão de outras entidades públicas e privadas, funcionando como órgão misto[7].

Todas essas divergências, e outras que possam surgir com o proferimento dos três votos faltantes, deverão ser objeto de debate pelo STF, que certamente chegará a um consenso para propor o novo modelo não apenas de responsabilidade das plataformas pelo conteúdo produzido pelos seus usuários, mas de como funcionará o controle que as plataformas passarão a exercer de forma muito mais aguda, uma vez que reste definida a sua responsabilidade. E nesse ponto, é preocupante não apenas a falta de convergência entre os votos majoritários, mas a pouca atenção que tem sido conferida aos direitos dos usuários em um cenário em que as plataformas serão as grandes e principais responsáveis por decisões que afetam direitos fundamentais básicos, como a liberdade de expressão.

Escrevendo nessa coluna no início do julgamento do Marco Civil da Internet pelo STF, essa autora já alertava que o Tribunal não parecia disposto a se debruçar com profundidade sobre a questão procedimental que se mostra absolutamente crucial para garantir os direitos dos usuários[8]. A Nova Escola de regulação de conteúdo, também já amplamente discutida nessa coluna[9], descreve a liberdade de expressão na era da internet como triangular: não existe mais o conflito linear entre o Estado (regulador) e o criador do discurso (regulado), e sim uma relação com três vértices, em que a plataforma, o novo regulador do discurso, se coloca entre o Estado e o usuário[10]. Conforme se consolida entre nós a tese da responsabilidade das plataformas, devemos internalizar também que nesse modelo as plataformas são os juízes que decidirão quem, como, e em que medida, poderão se expressar; e também serão responsáveis reger o procedimento através do qual essas decisões fundamentais serão tomadas.

Ainda é vaga a preocupação expressada pelos Ministros acerca das garantias procedimentais e substantivas a que os usuários terão direito num regime em que o controle de conteúdo é feito primordialmente pelas plataformas. Curiosamente, o voto proferido até o momento que mais tempo dedica a esse assunto é a solitária divergência do Ministro André Mendonça. Apesar de defender que seja mantido o regime do art. 19, em que as plataformas são, via de regra, isentas de responsabilidade pelo conteúdo produzido pelos usuários, o voto discorre acerca da necessidade de proteger os usuários de abusos que possam ser perpetrados no processo de controle de conteúdo potencialmente danoso, e sugere, inclusive, uma inversão na perspectiva da responsabilidade das plataformas, indicando que elas poderiam ser responsabilizadas se comprovado que, no processo de controle de conteúdo, conferiram tratamento desigual aos usuários.

Ao final da última sessão de julgamento, o Ministro Edson Fachin indicou que traria, em seu voto, uma perspectiva distinta da corrente majoritária já formada. Já são muitas as sessões de julgamento dedicadas ao Marco Civil da Internet, mas um assunto dessa magnitude ainda merece muito debate entre os Ministros. Se o Supremo será o fórum responsável por definir o futuro da regulação de conteúdo na internet, essa definição deve indicar um caminho claro e, ao mesmo tempo, não esquecer dos usuários.

______________________________________________________________

[1] “Marco Civil da Internet: julgamento continuará em 25/6”. Disponível em: https://noticias.stf.jus.br/postsnoticias/marco-civil-da-internet-julgamento-continuara-em-25-6/, acesso em 20/06/2025.

[2] Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

[3] Art. 21. O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.

[4] REs nº 1037396 e nº 1057258, que tratam respectivamente dos Temas 987 e 533 da Repercussão Geral. O Tema 987 dispõe sobre a “Discussão sobre a constitucionalidade do art. 19 da Lei n. 12.965/2014 (Marco Civil da Internet) que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros”; já o Tema 533 trata do “Dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário”.

[5](…) o cumprimento das regras deve ser supervisionado por um comitê independente, com minoria de representantes do governo e maioria de representantes do setor empresarial, academia, entidades de tecnologia, usuários e sociedade civil”. BARROSO, Luís Roberto. BARROSO, Luna van Brussel. Democracia, Mídias Sociais e Liberdade de Expressão, Mentiras e a Busca da Verdade Possível. Direitos Fundamentais & Justiça, Belo Horizonte, v. 17, n. 49, p. 285-311, jul/dez 2023. P. 297-298.

[6] “Presidente do TSE inaugura Centro Integrado de Combate à Desinformação”. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Marco/presidente-do-tse-inaugura-centro-integrado-de-combate-a-desinformacao, acesso em 20/06/2025.

[7] Nos termos da Portaria TSE nº 180 de 12 de março de 2024, que institui o Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia e disciplina a sua atuação.

[8] ROBALINHO, Ana Beatriz. Precisamos (continuar a) falar sobre regulação de conteúdo nas redes sociais. JOTA, Observatório Constitucional. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/observatorio-constitucional/precisamos-continuar-a-falar-sobre-regulacao-de-conteudo-nas-redes-sociais#_ftn2, acesso em 20/06/2025.

[9] Idem. Ver também ROBALINHO, Ana Beatriz. Precisamos (continuar a) falar sobre regulação de conteúdo nas redes sociais. Conjur, Observatório Constitucional. Disponível em: https://www.conjur.com.br/2021-out-02/observatorio-constitucional-precisamos-falar-regulacao-conteudo-redes-sociais/, acesso em 20/06/2025.

[10] BALKIN, Jack M. Free Speech is a Triangle. Columbia Law Review, vol. 118, n. 7, 2018, p. 2012-2015.