A Internet brasileira cresceu, acelerou e mudou a forma como a atenção se distribui. Hoje, o que chega ao usuário pode passar por filtros, escolhas e mecanismos de promoção que modulam o alcance. Por quase dez anos, um regime simples de entender e aplicar, definido pelo art. 19 do Marco Civil da Internet, condicionava a responsabilização de provedores de aplicação somente ao descumprimento de ordem judicial específica de remoção de conteúdos. Em junho de 2025, o Supremo Tribunal Federal alterou esse arranjo, criando hipóteses de responsabilização sem ordem judicial e estabelecendo vias de retirada mais céleres em diversas situações. O desafio é aplicar esse regime para conter danos reais sem estreitar a diversidade que mantém vivo o debate público.
Inscreva-se no canal do JOTA no Telegram e acompanhe as principais notícias, artigos e análises!
No modelo original do Marco Civil, cabia ao Judiciário aferir a ilicitude e resolver colisões de direitos. A responsabilização dos provedores de aplicação apenas se formava diante do descumprimento de ordem judicial, o que freou remoções arbitrárias de conteúdos e ampliou a diversidade de atores e vozes. Remoções decididas pelos próprios provedores, motivadas por violações dos termos de uso ou por hipóteses legais podiam ocorrer, mas, isoladamente, não faziam nascer o dever de indenizar. Ao reexaminar o tema, o Supremo declarou a inconstitucionalidade parcial do art. 19, afastando interpretações que limitassem a tutela de direitos fundamentais. Sem suprimir o texto legal, fixou tese a ser observada até que o Congresso edite nova lei destinada a corrigir as lacunas do regime. O avanço é necessário, desde que preservadas as salvaguardas que deram previsibilidade ao ecossistema.
A responsabilização civil por conteúdo de terceiro, conforme decisão do Supremo, segue agora em duas vias. O art. 19 continua aplicável aos chamados provedores neutros, entendidos como serviços que não interferem no conteúdo e que incluem e-mail, reuniões fechadas por vídeo ou voz e mensageria privada, além dos casos de crimes contra a honra. Nessa hipótese, o provedor só responde se descumprir ordem judicial específica. Já o art. 21, antes restrito à divulgação não consentida de cenas de nudez privadas, foi ampliado para abranger casos de crime ou ato ilícito, e contas inautênticas. Aqui, a responsabilidade se configura quando, após notificação inclusive extrajudicial, não houver providência em tempo razoável.
Dessa ampliação decorre também a obrigação de remover a publicação de réplicas idênticas de conteúdo já reconhecido como ilícito por decisão judicial. A medida pretende evitar a repetição de litígios e reduzir a exposição ao dano, mas o teste real está em não estender “idêntico” até “semelhante”. Na prática, a diferença pode ser tênue: uma paródia, uma campanha de contraponto ou uma denúncia de interesse público podem ser barradas se a leitura for apressada. Outro ponto foi a presunção de responsabilidade em anúncios, impulsionamentos pagos e redes artificiais de distribuição. A justificativa é compreensível, pois a amplificação de um conteúdo ilícito amplia também os danos. Segundo a tese do STF, a exclusão da responsabilidade, nesse caso, dependerá de atuação diligente do provedor em tempo razoável, sem que haja clareza sobre o que isso representa.
Esses novos mecanismos de retirada extrajudicial buscam responder a situações em que o tempo agrava o dano, mas exigem aplicação cuidadosa para não gerar efeitos colaterais indesejados. A ausência de parâmetros objetivos na tese cria um dilema constante para o provedor: correr o risco da responsabilização posterior ou adotar a remoção preventiva. A tendência natural, sobretudo em cenários de alta litigiosidade e pressão reputacional, é a segunda. O resultado previsível é o sacrifício de mensagens legítimas, sobretudo em temas sensíveis ou controversos, nos quais o custo de manter a publicação supera o benefício de assegurar o debate.
Inscreva-se no canal de notícias do JOTA no WhatsApp e fique por dentro das principais discussões do país!
A decisão também criou um dever de cuidado para prevenir a circulação massiva de ilícitos graves, como terrorismo, crimes contra crianças, violência de gênero e racismo. Nesses casos, a responsabilidade não decorre de um episódio isolado, mas da caracterização de falha sistêmica, entendida como ausência de medidas adequadas de prevenção ou remoção. O ponto crítico é que não há clareza sobre o que configura essa falha. Sem limites definidos, plataformas tendem a adotar filtros preventivos em larga escala. Sistemas automatizados lidam com padrões, mas têm dificuldade de interpretar contextos. Uma denúncia jornalística com trechos probatórios sobre exploração infantil, por exemplo, pode cair nesse filtro, e não chegar ao público.
Aplicar a tese de forma uniforme num ecossistema heterogêneo produz efeitos assimétricos. Ainda que o Supremo tenha mantido o artigo 19 para serviços considerados neutros, como e-mail, mensageria e reuniões fechadas, deixou de fora nesse rol taxativo outras aplicações que também não interferem de forma relevante na circulação de conteúdos. O Comitê Gestor da Internet no Brasil já havia alertado para esse risco e propôs uma tipologia que distingue aplicações segundo suas funcionalidades e o grau de interferência na circulação de conteúdos de terceiros. Nesse arranjo, o CGI.br reforça que a interferência deixa de ser detalhe técnico e passa a ser critério central na definição de responsabilidades.
Segundo essa tipologia, há serviços passivos ou agnósticos em relação ao conteúdo, que apenas transportam ou armazenam informações, como hospedagem de sites, redes de entrega de conteúdo (CDNs) e pontos de troca de tráfego (IXs). Nesses casos, a eventual intervenção sobre conteúdos se limita a assegurar a segurança e a estabilidade da rede. Mesmo entre os que exercem interferência, há graus distintos e, portanto, riscos diferentes. Apenas para ilustrar, redes sociais e buscadores operam em alta interferência, moldando diretamente o alcance e o destaque de conteúdos por meio de técnicas sofisticadas como algoritmos, segmentação e impulsionamentos, enquanto fóruns e enciclopédias colaborativas permanecem na categoria de baixa interferência, apoiadas sobretudo na curadoria comunitária. Quando todos são submetidos às mesmas obrigações, quem dispõe de menos meios de moderação assume encargos equivalentes aos de quem controla conteúdos em escala massiva, o que encarece ou até mesmo inviabiliza operações e favorece a concentração.
O julgamento apontou rumos, mas não afastou a necessidade de lei. A atualização normativa precisa nascer de debate plural e levar em conta as assimetrias entre diferentes serviços e provedores de aplicação, para que a proteção de direitos não se transforme em insegurança. Sem esse cuidado, desaparece a previsibilidade que sustenta a participação de atores menores. O avanço que interessa é o que reforça garantias sem corroer a segurança jurídica que ajudou a Internet a florescer no país.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
No fim, não se discute apenas a retirada de conteúdos, mas o desenho do espaço público digital. Se as normas e a sua execução combinarem proporção, critérios estáveis e reconhecimento das diferenças entre serviços, a tutela de direitos ganha eficácia sem sufocar a pluralidade. Sem isso, a incerteza vira filtro e empurra para fora justamente quem tem menos fôlego. O caminho desejável é conter ilícitos e, ao mesmo tempo, manter viva a Internet brasileira, com diversidade de modelos, circulação de ideias e espaço real para inovar.