Plataformas, moderação de conteúdo e incentivos a partir da responsabilidade civil

  • Categoria do post:JOTA

É da essência do modelo de negócios das redes sociais organizadas sob a forma empresarial a possibilidade de publicação, compartilhamento e recebimento de conteúdo, nos mais variados formatos e sobre os mais diversos temas, normalmente sem cobrança direta dos usuários. Sua forma de remuneração se dá, sobretudo, mediante anúncios publicitários, no que se convencionou chamar de “economia da atenção”.

Essas empresas não se confundem com empresas de comércio eletrônico, que, por sua vez, intermediam compradores e vendedores. Tratou-se de forma disruptiva de divulgação de informações, sendo muito mais democrática e inclusiva, pois os usuários, além de consumirem o que é produzido por jornalistas de grandes grupos de mídia, agora são também fonte. Ao mesmo tempo, seu formato de anúncio publicitário é mais eficiente, pois permite às marcas chegarem com menos custo de transação aos seus potenciais consumidores (não é mais preciso anunciar em rede nacional seu produto!).

Esse fluxo de troca de informações e opiniões ocorre de acordo com as características de cada plataforma e seus termos de uso, a partir do filtro de complexos algoritmos, que resulta em feeds personalizados aos gostos de cada usuário, além dos princípios e regras de cada ordenamento jurídico, já tendo inclusive o STJ decidido que a lei brasileira se aplica a todas as plataformas que fazem negócios no Brasil (isto é, aqui dirigem seu conteúdo, ao público brasileiro).

Isso significa que, não bastasse o controle de informações por parte do Estado, inclusive do Poder Judiciário,[1] sabe-se que igualmente as plataformas intervêm no fluxo comunicacional de seus usuários. Nesse contexto, surge um novo espaço de tomada de decisão a respeito da liberdade de expressão, no qual os decisores são agentes privados.[2]

Fala-se, aqui, da atividade de moderação de conteúdo, que engloba a rotulação, remoção ou alteração do alcance de contas e publicações, bem como no bloqueio temporário e, em alguns casos, até banimento de usuários. Na ausência de indesejada censura prévia, é o instituto da responsabilidade civil que balizará, entre outros, essa tomada de decisão, como sabemos das lições de Análise Econômica da Responsabilidade Civil. Afinal, a responsabilidade civil é um relevante mecanismo de incentivo e desincentivo à adoção de condutas por agentes econômicos, até mesmo com vistas a que sejam induzidos a um “comportamento socialmente desejável”.[3]

Eventuais excessos à parte, é de se observar que, embora a moderação ocorra por meio de processos decisórios privados nem sempre transparentes ou de fácil compreensão, ela é necessária sobretudo para preservar a essência da internet: ser um espaço que viabilize o debate de ideias e a livre exposição de argumentos a um baixo custo de transação.

Ao mesmo tempo, a moderação deve resguardar os direitos de seus usuários – especialmente em situações envolvendo a identificação e a tomada de medidas em relação a conteúdo ilícito e/ou que viole os termos e condições do provedor e, mais amplamente, a própria ordem jurídica cuja violação ensejaria responsabilização civil.

Promover melhores práticas por parte das plataformas tem sido uma preocupação em escala global, com destaque para a União Europeia e seu Digital Services Act (DSA), que tem inspirado movimentos também em outros sistemas jurídicos. Ao lado do Digital Markets Act (cuja premissa é regular as práticas concorrenciais das big techs), o DSA se propõe, dentre outros objetivos, a promover mais transparência na moderação, que também deve ser baseada em princípios como publicidade, contraditório e devido processo.

No Brasil, o PL 2630/2020 (que ficou conhecido como PL das Fake News), motivou discussões quanto às condutas esperadas das plataformas nesse âmbito. Todavia, antes de se mudar a legislação, é preciso entender o que existe em vigor, os problemas que desejamos mudar e calcular os potenciais impactos dessa modificação.

O ordenamento jurídico brasileiro não estabelece diretrizes específicas para a atuação dos provedores no que toca à moderação de conteúdo – há relativa liberdade. Ainda assim, para além das normas já existentes com vistas a balizar seu comportamento (Código de Defesa do Consumidor, Código Civil e a própria Constituição Federal), há que se atentar para o microssistema de responsabilidade civil extraído do Marco Civil da Internet – que é, hoje, o grande referencial na atuação das plataformas ao se falar em intervenção no fluxo comunicacional.

Os arts. 19 e seguintes do MCI, que versam sobre a responsabilidade dos provedores de aplicação por conteúdo de terceiros, figuram como importantes guias para o comportamento das plataformas frente ao conteúdo que é publicado por seus usuários – o que, naturalmente, está diretamente relacionado com a moderação.

Em meio a tantas discussões sobre regulação das plataformas, e diante de certo clamor de parte da sociedade para que sejam responsabilizadas em larga (e muitas vezes indiscriminada) medida, torna-se salutar discutir os diferentes formatos de imputação de responsabilidade, com vistas a destacar os incentivos que representam para o modelo de negócios de empresas que atuam no Brasil.

Quanto à responsabilidade civil das plataformas digitais por conteúdo de terceiros, à luz da abordagem dualista do Marco Civil da Internet (que se divide entre provedores de conexão[4] e de aplicação), interessa-nos mais os provedores de aplicação – em especial, os provedores de conteúdo, como as redes sociais, que não exercem qualquer tipo de controle editorial prévio em relação ao que seus usuários publicam – o que, tal qual já observado, não significa que não desempenhem controle de forma posterior.

Desde 2014, com a entrada em vigor do Marco Civil da Internet, o artigo 19 passou[5] a condicionar a responsabilidade da plataforma por conteúdo de terceiros à inércia após um comando judicial de exclusão.[6] A escolha do legislador veio evidenciada na própria redação do artigo, que fala expressamente em “assegurar a liberdade de expressão e impedir a censura”.

Tornou-se clara a responsabilidade subjetiva (indicada já na Exposição de Motivos do MCI) por omissão do provedor quanto a uma ordem judicial de retirada do conteúdo. Ainda assim, nada impede que a plataforma acolha notificações extrajudiciais, com base em regras próprias – e, se houver excesso na tomada de alguma medida moderativa, pode responder por ato próprio. A análise e decisão quanto a eventual ilicitude de um conteúdo ficou sob responsabilidade do Judiciário.[7]

O modelo inaugurado pelo MCI está longe de ser unanimidade. Sob o argumento de que os provedores exercem atividade de risco, parte da doutrina critica a responsabilidade subjetiva e condicionada, defendendo a responsabilização objetiva, em razão do risco da atividade; há autores que entendem, ainda, que o modelo vigente desprotegeria a vítima quanto a violações a direitos de privacidade, porque teria de buscar o Judiciário para ver resguardado o direito à imagem, à honra, à privacidade etc.[8]

Em sentido oposto, já com base na Exposição de Motivos do MCI, aqueles que defendem o sistema ressaltam que o objetivo do Marco Civil, a partir do sistema de responsabilidade adotado, era viabilizar o desenvolvimento de espaços que primassem pela liberdade de expressão e de informação, ao mesmo tempo em que cuidaria de garantir à vítima de danos eventualmente ali consolidados os meios adequados para identificar o ofensor e remover o conteúdo, por meio das plataformas.[9] Mais que isso, um sistema de responsabilidade subjetiva no formato previsto na lei permite um modelo de negócios que enseja a participação de toda a sociedade brasileira diante da ausência de cobrança direto pelo serviço, dado que as receitas advêm dos anúncios publicitários, como já explicado.

Somando-se a isso, de um lado, as plataformas estariam livres da pressão de remover qualquer conteúdo apontado como supostamente ilícito, o que inclusive poderia criar uma espécie de “censura colateral” (collateral censorship, na expressão original, cunhada por Jack M. Balkin),[10] em razão do receio de responsabilização; de outro, não se estaria impedindo esses provedores de remover conteúdo voluntariamente, caso contrário a suas disposições próprias.

Igualmente apontando as vantagens do modelo em questão, cabe lançar luz sobre problemas nos mecanismos de notificação e retirada de conteúdo sem ordem judicial, como o notice and take down (adotado na União Europeia, a partir da Diretiva do Comércio Eletrônico, e mantido no DSA; e nos Estados Unidos, para casos específicos, como aqueles envolvendo direitos autorais).[11]

Um dos pontos sensíveis reside no fato de que esses sistemas permitem abusos frequentes das supostas vítimas, incentivando a remoção arbitrária de conteúdo, inclusive a partir do acolhimento de “reclamações frívolas, que jamais seriam atendidas pelo Judiciário”,[12] tão somente com vistas a que os provedores se isentem de responsabilidade.[13]

A intervenção do Judiciário, embora questionada por parte da doutrina, tem sua importância reiterada em estudos como o divulgado pela organização InternetLab.[14] A partir de seu repositório Dissenso.org, que apresenta um panorama representativo das principais tendências jurisprudenciais a respeito da liberdade de expressão e acesso à informação no ambiente digital no Brasil, verificou-se que, das 152 decisões catalogadas em agosto de 2018, apenas em 33,5% tratavam de pedidos de remoção de conteúdo que acabaram deferidos ou confirmados em segunda instância. Significa dizer que, em mais de 60% dos casos, o pronto atendimento de pedidos de usuários, pelas plataformas, implicaria a remoção de manifestações e conteúdos legítimos – com decisões amparadas, provavelmente, no temor de responsabilização.

A forma como as redes sociais se posicionam frente ao que seus usuários publicam e compartilham, portanto, está diretamente relacionada aos riscos a que estão sujeitas no que diz respeito a eventuais sanções jurídicas: se as regras de responsabilidade forem muito rígidas, pode-se criar um ambiente de estímulo à censura prévia; se forem muito brandas, podem deixar os usuários à mercê de conteúdo lesivo, que viole direitos individuais, coletivos e difusos. Mais que isso, o sistema de responsabilização civil traz efeitos no modelo de negócios dessas plataformas e na democratização dos serviços que prestam, pois pode haver incentivo à cobrança de mensalidades, ao invés da remuneração apenas por publicidade.

Outro cuidado a ser tomado é em não se gerar mais uma onda de judicialização com busca de indenização; o sistema público de distribuição de justiça pode não resistir.

Esse cenário não pode passar ao largo das futuras discussões sobre regulação de conteúdo das plataformas – seja no âmbito do legislativo (em movimentos na sequência do PL 2630/2020), seja junto ao Poder Judiciário (que tem no horizonte o julgamento do Tema 987 do STF, que discute a constitucionalidade do art. 19 do MCI).

Refletir sobre as consequências dos sistemas de responsabilização é essencial, especialmente em um contexto que demanda a definição de padrões de atuação para as plataformas, visando a assegurar maior transparência e responsabilidade nos procedimentos de moderação. Além de reparar eventuais danos aos usuários causados pelas ações dos provedores, é crucial incentivar o refinamento das práticas de moderação, protegendo os direitos dos usuários e promovendo um ambiente digital aberto, diversificado e democrático. Mas o debate tem de ser feito com base em evidências científicas, a partir de dados empíricos, e não em sentimentos ou mesmo oportunismo político ou econômico.

[1] Sobre o tema, texto recentemente publicado no JOTA: CARVALHO, Cristiano; ARAUJO, Fernando; TIMM, Luciano. Twitter Files, liberdade de expressão e o livre mercado de ideias. JOTA, São Paulo, 26 abr. 2024. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/twitter-files-liberdade-de-expressao-e-o-livre-mercado-de-ideias-26042024?non-beta=1. Acesso em: 29 abr. 2024.

[2] BALKIN, Jack M. Free speech is a triangle. Columbia Law Review, Rochester, v. 118, n. 7, p. 2011-2056, 2011. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3186205. Acesso em: 29 abr. 2024.

[3] TRINDADE, Manoel Gustavo Neubarth; SANTOLIM, Cesar. A teoria dos punitive damages: considerações quanto à aplicabilidade no ordenamento jurídico brasileiro. In: GONÇALVES, Oksandro; RIOS, Rodrigo Sánchez; OSORIO, Ricardo Serrano (org.). Direito e economia entre Peru e Brasil: alcance da sua institucionalidade jurídico-econômica. Curitiba: Íthala, 2016, p. 400.

[4] A Seção III do Marco Civil é inaugurada com disposição trazida pelo artigo 18, que indica que os provedores de conexão gozam de “imunidade legal” quando se trata de responsabilização por condutas de seus usuários. Essa posição já era reconhecida pela jurisprudência brasileira desde o início do século XX, apenas tendo sido consolidada no MCI.

[5] Antes da entrada em vigor do Marco Civil, os tribunais brasileiros, inclusive o Superior Tribunal de Justiça, estavam próximos de consolidar posicionamento por meio do qual a responsabilização da plataforma independeria de comando judicial, estabelecendo-se após sua ciência quanto ao conteúdo lesivo. Trata-se do sistema conhecido “notice and takedown“, adotado na União Europeia ainda na Diretiva do Comércio Eletrônico, que expressamente eximia as plataformas de um “dever geral de vigilância” em relação ao conteúdo utilizado por seus usuários. O formato foi mantido na atualização promovida pelo DSA e agora chamado de notice and take action (notice and action mechanisms, na redação original do art. 14). Em: FARINHO, Domingos Soares. Os direitos humanos no Regulamento Serviços Digitais. In.: O futuro da regulação de plataformas digitais: digital services act (DSA) e digital markets act (DMA) e seus impactos no Brasil. Campos, Ricardo. Grings, Maria et al (Coord). São Paulo: Editora Contracorrente, 2023. local.Local. 3834-4578.

[6] Há exceções, referentes a conteúdo que infrinja direitos autorais, por força do disposto artigo 19, § 2º, do Marco Civil, e a publicações que contenham violações de intimidade decorrentes da divulgação, sem autorização dos envolvidos, de quaisquer materiais contendo cenas de nudez e atos sexuais de caráter privado, nos termos do art. 21.

[7] TEFFÉ, Chiara Spadaccini de; SOUZA, Carlos Affonso; NUNES, Beatriz Laus Marinho. Responsabilidade civil de provedores. In:  BOTTINO, Celina; LEMOS, Ronaldo; SOUZA, Carlos Affonso (coord.). Marco Civil da Internet: jurisprudência comentada. São Paulo: Editora Revista dos Tribunais, 2018.

[8] SCHREIBER, Anderson. Marco Civil da Internet: avanço ou retrocesso? A responsabilidade civil por dano derivado do conteúdo gerado por terceiro. In: DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (coord). Direito & Internet III – Tomo II: Marco Civil da Internet (Lei nº 12.965/2014). São Paulo: Quartier Latin, 2015. p. 284; QUEIROZ, João Quinelato. Responsabilidade civil solidária entre provedores de conteúdo ofensivo à luz do Marco Civil: critérios objetivos na perspectiva constitucional. In: SCHREIBER, Anderson; MORAES, Bruno Terra de; TEFFÉ, Chiara Spadaccni de (coord.). Direito e mídia: tecnologia e liberdade de expressão. Indaiatuba: Editora Foco, 2020, p. 300-301; LONGHI, João Victor Rozatti Longhi. Responsabilidade civil e redes sociais: retirada de conteúdo, perfis falsos, discurso de ódio e fake news. Indaiatuba: Editora Foco, 2020, p 79-81.

[9] TEFFÉ, Chiara Spadaccini de. Marco Civil da Internet: considerações sobre a proteção da liberdade de expressão, neutralidade da rede e privacidade. In: BECKER, Daniel; FERRARI, Isabela (org.). Regulação 4.0: novas tecnologias sob a perspectiva regulatória. São Paulo: Thomson Reuters Brasil, 2019, p. 143

[10] BALKIN, 2011, p. 2016-2017.

[11] A sistemática do notice and takedown é inspirada na Lei de Direitos Autorais na Era Digital (Digital Millennium Copyright Act, ou “DMCA”, na sigla em inglês), lei estadunidense de 1998. Dispondo especificamente sobre conteúdo relacionado a direito autoral, é uma exceção à regra da responsabilidade dos provedores nos Estados Unidos. Desde 1996, a Section 230, incluída no Communications Decency Act (CDA) do U.S. Code, exime as plataformas de responsabilidade, entendendo-os meramente como intermediárias. Ponto interessante é que, apesar da ampla tutela à liberdade de expressão, a imunidade dos provedores se estende para garantir que também possam, “de boa-fé”, permitir ou remover conteúdo de terceiros. Trata-se da chamada cláusula do bom samaritano (good samaritan clause). A intenção legislativa era fomentar o desenvolvimento de empresas de tecnologia, ao mesmo tempo em que as encorajava a moderar o conteúdo em seus sites e blogs (essencialmente, comentários de visitantes), sem temer serem responsabilizadas. Em: DEL CAMPO, Agustina et al. Olhando Al Sur: rumo a novos consensos regionais em matéria de responsabilidade de intermediários na Internet. Al Sur, [S.l.], abr. 2021. Disponível em: https://www.alsur.lat/sites/default/files/2021-06/Responsabilidad%20de%20intermediarios%20PT.pdf. Acesso em: 14 abr. 2024.

[12] LEONARDI, Marcel. Fundamentos do direito digital. São Paulo: Thomas Reuters, 2019. [E-book não paginado].

[13] Com base em estudos de membros da Electronic Frontier Foundation e do Berkman Center for Internet & Society da Harvard Law School, Marcel Leonardi comenta que o sistema instituído pelos Estados Unidos a partir do DMCA, para casos atinentes ao direito autoral, indica que a notificação e retirada é frequentemente utilizada para o cometimento de abusos. Além de servir como ferramenta de intimidação, pode ser empregada em casos nos quais sequer se está falando de direito autoral, com importantes implicações no que diz respeito à liberdade de expressão. Em: VON LOHMANN, Fred. Unintended consequences: twelve years under the DMCA. Electronic Frontier Foundation, fev. 2010. Disponível em: https://www.eff.org/files/eff-unintended-consequences-12-years.pdf. Acesso em: 29 abr. 2024; SELTZER, Wendy. Free speech unmoored in copyright’s safe harbor: DMCA and Chilling Effects On Free Speech. Harvard Journal of Law & Technology, Massachusetts, v. 24, n. 1, p. 171-232, set./dez. 2020. Disponível em: https://wendy.seltzer.org/pubs/seltzer-chill.pdf.pdf. Acesso em: 29 abr. 2024; e LEONARDI, op. cit., [E-book não paginado].

[14] OLIVA, Thiago. Responsabilidade de intermediários e a garantia da liberdade de expressão na rede. InternetLab, São Paulo, 23 abr. 2019. Disponível em: https://internetlab.org.br/pt/especial/responsabilidade-de-intermediarios-e-a-garantia-da-liberdade-de-expressao-na-rede/. Acesso em: 29 abr. 2024.