Moderação de conteúdo 10 anos após o MCI

  • Categoria do post:JOTA

Um dos assuntos mais relevantes dos últimos meses foi o embate X vs. STF ou, se preferir um tom mais pessoal, Elon Musk vs. Alexandre de Moraes. Se você não acompanha a regulamentação do mercado de tecnologia, provavelmente sentiu os efeitos da disputa ao ver a rede fora do ar, e se acompanha, certamente entende o que é tão curioso nesse debate.

O ano de 2024 é chave de uma curiosa coincidência: completam-se 20 anos do lançamento do Orkut no Brasil e da criação do Facebook, como também 10 anos da aprovação do Marco Civil da Internet, a principal lei brasileira que regula os direitos e obrigações no ambiente virtual. É neste cenário que o tema de moderação de conteúdo vem gerando grandes engajamentos, assunto que não gerava tanto interesse desde 2004 com a criação das maiores redes sociais.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

Recentemente, o Superior Tribunal de Justiça (STJ) decidiu jogar lenha na fogueira com um novo entendimento que será fundamental no que se entende sobre moderação de conteúdo: pela primeira vez, a corte analisou a legalidade de provedores de aplicação removerem, por iniciativa própria, conteúdos que violem seus termos de uso, sem precisar de intervenção judicial.

Com isso, nada mais justo que revisitar brevemente o que já foi discutido sobre o tema no Brasil, para entender o que ela é hoje e o que pode ser no futuro. Uma coisa podemos adiantar: o entendimento recente do STJ abre caminhos para um poder crescente das plataformas digitais, mas faz isso com certas condições.

A era pré-Marco Civil da Internet

Muito antes da entrada em vigor do Marco Civil da Internet (Lei 12.965/2014), o Judiciário brasileiro já se digladiava com o tema da moderação de conteúdo online. Assim, diversas interpretações de regras tradicionais de responsabilidade civil eram criadas e debatidas nos bancos das universidades e nos tribunais para tentar compreender como o Direito devia reagir a um cenário, à época, pouco entendido pelo legislador (e mesmo pelo Judiciário). Na ausência de leis específicas, o problema encontrou solução temporária na jurisprudência do STJ.

O entendimento da corte defendia que, embora o provedor não fosse responsável pela fiscalização prévia do conteúdo publicado, ele seria corresponsável caso o conteúdo ofensivo não fosse retirado a partir de sua notificação. Isto porque, segundo a então corrente jurisprudência, o provedor se beneficiava economicamente e estimulava a interação entre os usuários (vide REsp 1.117.633/RO).

O modelo adotado inicialmente pelo STJ foi então o do chamado notice and takedown, pelo qual o provedor, ao receber uma notificação, deveria suspender ou remover o conteúdo. O que não é expresso na maioria das decisões do STJ é que essa remoção não era automática, podendo o provedor avaliar o mérito da alegação de ilegalidade. Implicitamente, isso sempre esteve claro pelo simples fato de que, se o conteúdo não é ilícito em absoluto, não haveria responsabilidade, seja do autor ou do provedor.

Esse posicionamento foi recebido de forma positiva, principalmente por significar um afastamento do STJ de uma interpretação mais rigorosa que reconhecesse alguma forma de responsabilidade objetiva do provedor pelo conteúdo de terceiro. O modelo adotado, no entanto, não ficou livre de críticas, já que dava a responsabilidade de decidir sobre a (i)licitude de determinado conteúdo a uma empresa particular.

Em casos de ilegalidade clara (como no caso de pornografia infantil), a plataforma poderia cumprir facilmente seu encargo. Já em conteúdos de mais difícil classificação (crítica ou ofensa? preconceito ou livre opinião? intolerância ou liberdade religiosa?), o provedor ficava na difícil posição de decidir sobre a manutenção ou não do conteúdo e se ver responsabilizado, independentemente da decisão tomada.

Entra o Marco Civil da Internet

Não por outra razão, o Marco Civil da Internet estabelece diretrizes claras sobre a responsabilidade civil dos provedores de aplicação no seu artigo 19, pelo qual o provedor é obrigado a remover o conteúdo mediante ordem judicial, só sendo responsabilizado caso deixe de fazê-lo.

A exceção a essa regra vem justamente no artigo 21 do MCI, pela qual, quando o conteúdo tiver naturezas específicas, a obrigação de remoção do conteúdo vem da notificação pelo interessado, e não por ordem judicial. Ou seja, quando determinado conteúdo incluir, sem autorização dos retratados, nudez ou atos sexuais privados, basta a notificação pelo ofendido para gerar a obrigação de remover o conteúdo e, na omissão do provedor, responsabilizá-lo.

A aplicação prática do artigo 19 se desenvolveu de forma razoavelmente homogênea, reconhecido o dever das plataformas de remover conteúdo mediante ordem judicial. No entanto, era justamente nos casos em que a própria plataforma tomava a iniciativa, considerando o conteúdo ilegal ou contrário ao contrato de serviço, que não era ainda pacífico na jurisprudência se existiria ou não tal poder de moderação ativa.

Com um objetivo de colocar um ponto final nessa dificuldade eminente, em setembro de 2024, a corte se manifestou pela primeira vez sobre o assunto.

Novos paradigmas

No julgamento do REsp 2.139.749/SP, o STJ se posicionou no sentido de que as plataformas têm todo o incentivo para cumprir não apenas a lei, mas, fundamentalmente, seus próprios termos de uso, objetivando evitar, mitigar ou minimizar eventuais contestações judiciais ou mesmo extrajudiciais. Assim, pelo novo posicionamento, é legítimo que um provedor de aplicação de internet, mesmo sem ordem judicial, retirar de sua plataforma determinado conteúdo, quando este violar a lei ou seus termos de uso.

É certo que o Marco Civil da Internet cria regras sobre quando o provedor de aplicação deve remover conteúdo ilegal, sob pena de ser responsabilizado caso não o faça. Mas pouco ou nada se fala sobre o que o provedor de aplicação pode ou não pode fazer por sua própria iniciativa. Com o recente precedente do STJ, fica agora expresso que o Marco Civil não impede nem proíbe a moderação de conteúdo ativa.

Por um lado, é louvável o esclarecimento. Dar interpretação restritiva ao art. 19, no sentido de que a regra somente autorizaria a retirada de conteúdo da plataforma mediante ordem judicial seria uma dupla impropriedade: primeiro, porque dá à lei um sentido que ela não tem, qualquer que seja a linha interpretativa que se queira adotar. Segundo, porque vai de encontro ao esforço que a comunidade nacional e internacional, o Poder Público, a sociedade civil e as empresas têm realizado em busca de uma internet livre de desinformação.

Por outro lado, esse posicionamento depende de duas premissas declaradas pelo STJ, mas que nem sempre se provam realidade: (i) que os termos de uso da plataforma sejam de fato alinhados com a legislação aplicável e não estabeleçam restrições incompatíveis com os parâmetros constitucionais, e (ii) que o processo de moderação seja realizado de modo transparente.

A segunda premissa, em especial, é um tema espinhoso. Enquanto a falta de transparência no processo de moderação é frequentemente razão suficiente para que o Judiciário reverta o banimento ou exclusão de conteúdo sob uma alegação genérica de “violação de termos e condições”, é importante entender também a perspectiva da gestão de segurança e confiabilidade dentro de uma plataforma digital.

Isto porque, à semelhança de processos de compliance, se os critérios específicos desse monitoramento ou do algoritmo de detecção forem explicados ou publicizados, sua efetividade pode ser reduzida, dando a atores mal-intencionados ferramentas para contornar essas medidas de segurança.

Moderação de conteúdo para o futuro

O novo posicionamento do STJ vem confirmar algo que já era implícito: as plataformas não são neutras. Essa é uma chave consistente para compreender esse novo papel estrutural que regula discursos entre os campos do permitido/proibidos e do visível/invisível.

Sobre este ponto, ainda que uma plataforma decida por “derrubar” determinado conteúdo por ser incompatível com suas próprias diretrizes, dentro de seu campo de autonomia, esse provedor assume o risco jurídico da avaliação da licitude ou constitucionalidade de seu comportamento por parte do Judiciário. Essa avaliação pode, inclusive, não ser necessariamente limitada à licitude do conteúdo, desde que a restrição à liberdade de expressão seja constitucional.

Por outro lado, outro grande desafio está em dosar o nível de transparência adequado de modo que (i) o usuário possa compreender suficientemente o fundamento da decisão (e talvez se convencer sobre sua razoabilidade); (ii) a decisão possa ser submetida ao crivo do Judiciário se assim desejado pelo usuário; mas também (iii) seja preservado o sigilo sobre critérios e mecanismos de monitoramento para garantir a efetividade das medidas de segurança implementadas para proteger o próprio usuário contra conteúdo ilícito ou prejudicial.

No embate das manchetes entre o bilionário e o ministro do STF, resta a lição de que a moderação de conteúdo online no Brasil não pode ser vista como um debate simplista entre censura e liberdade de expressão. A moderação de conteúdo, sem dúvida, já tem um papel importante para plataformas e usuários, nessa era de inteligência artificial e desinformação.