O ministro do Supremo Tribunal Federal (STF) Luís Roberto Barroso, em seu voto no julgamento sobre a responsabilidade das plataformas digitais nesta quarta-feira (18/12), propôs uma série de medidas para regular a atuação de big techs no Brasil, incluindo alterações no regime de responsabilidade civil e a exigência de relatórios anuais de impacto seguindo o modelo do Digital Services Act (DSA) da União Europeia.
Assine a newsletter Últimas Notícias para receber os episódios do podcast Paredes São de Vidro e o roteiro ao final da temporada
Assim, ele abriu divergência em relação aos ministros Dias Toffoli e Luiz Fux, que já votaram pela inconstitucionalidade do artigo 19 do Marco Civil da Internet. Logo depois do voto do presidente da Corte, o ministro André Mendonça pediu vista do caso e afirmou que o voto de Barroso é “o que mais se aproxima” do seu. Barroso ainda afirmou que gostaria de “avançar o mais rápido possível” nessa questão que é “aflitiva”.
Em seu voto, Barroso considerou o artigo 19 — que responsabiliza plataformas pelo conteúdo de terceiros apenas se elas não removem o post depois de uma decisão judicial — insuficiente para proteger direitos fundamentais e a democracia, mas votou por não eliminá-lo integralmente do ordenamento jurídico. Ele propôs uma interpretação que prevê mais exceções previstas no próprio Marco Civil. “As exceções para aplicação da regra do artigo 21 devem ser ampliadas”, disse.
Barroso reconheceu que o Marco Civil da Internet foi uma regulação inovadora e adequada quando foi criada, mas argumentou que ela não atende mais às demandas atuais. Segundo ele, na época de sua elaboração, havia uma visão romântica da nova tecnologia como um espaço democrático. “Acreditava-se na neutralidade da rede”, disse. “Hoje sabemos que não há essa neutralidade, as plataformas atuam na difusão, amplificação e monetização dos conteúdos.”
O presidente da Corte propôs que uma notificação privada seja suficiente para a retirada de conteúdos que configuram crimes, exceto em casos de crimes contra a honra. Ele argumentou que, quando há criação de perfis falsos e desinformação perigosa, as plataformas devem agir imediatamente ao serem notificadas, mas que, em respeito à liberdade de expressão, crimes contra a honra, como calúnia e difamação, devem continuar exigindo decisão judicial prévia para remoção.
Dever de cuidado
Barroso também rejeitou a ideia de responsabilidade objetiva, afirmando que a responsabilização deve ser baseada na falha no cumprimento do dever de cuidado das empresas de tecnologia, configurando negligência em casos específicos. “A responsabilidade por conteúdos de terceiros deve ser subjetiva e não objetiva. Em caso de dúvida, cabe ao Judiciário decidir”, disse.
Assim, as plataformas têm o dever de adotar medidas para mitigar riscos sistêmicos, como a disseminação de pornografia infantil, incitação ao suicídio, tráfico de pessoas, terrorismo e ataques à democracia. Para ele, a falha no cumprimento desse dever deve ser considerada uma falha sistêmica e não meramente pontual. Segundo exemplo dado pelo ministro, se uma plataforma evita 99% dos casos de pedofilia e um conteúdo nocivo escapa, não há responsabilização imediata; no entanto, se 50% dos casos passam, isso caracteriza falha no cumprimento do dever de cuidado, justificando sanções.
As ações, para redes com mais de 10 milhões de usuários, devem ser publicadas em relatórios anuais inspirados no modelo europeu, de acordo com a proposta de Barroso. “A exigência de publicação de relatórios de impacto baseados no DSA permite o aproveitamento de boas práticas regulatórias já testadas”, disse. Não há razão para replicar algo que já foi feito por um órgão confiável.”
Ele comparou a adoção dos relatórios anuais no padrão europeu ao modelo regulatório já utilizado pela Agência Nacional de Vigilância Sanitária (Anvisa) em outras áreas. Ele citou a Resolução Colegiada 741/2022, que permite à agência aproveitar análises realizadas por autoridades regulatórias estrangeiras para otimizar a aprovação de medicamentos e produtos médicos no país. Para o ministro, essa abordagem, conhecida como “reliance regulatório”, é eficiente em países com recursos escassos, como o Brasil, e pode ser aplicada à regulação das plataformas digitais.
Além disso, Barroso sugeriu que o Congresso Nacional crie um órgão regulador independente, com representantes do governo, empresas, sociedade civil e legislativo, para monitorar as ações das plataformas e aplicar sanções quando necessário. Para ele, também a definição de critérios para regulação são atribuições fundamentais do Legislativo. “Nós respeitamos o Congresso e as dificuldades de consenso nessa matéria, mas estamos estabelecendo um regime jurídico provisório, porque ainda não há lei. A prerrogativa e a primazia são do Legislativo”, afirmou o presidente da Corte.
Marketplaces
O ministro Barroso também defendeu que as discussões do julgamento não devem ser aplicadas aos marketplaces, plataformas de comércio online que reúnem diversos vendedores. A menção a esse tipo de site apareceu no voto de Dias Toffoli, especialmente em relação a produtos falsificados vendidos online, e que potencialmente representam riscos aos consumidores.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
O ministro Cristiano Zanin acompanhou a opinião do presidente e sugeriu que o julgamento delimitasse claramente as plataformas abrangidas, diferenciando redes sociais de plataformas de e-commerce. Para Barroso, no caso de produtos falsificados ou ilegais, essas plataformas devem seguir as regras do Código de Defesa do Consumidor.
Discussões
Durante a sessão, ministros que ainda não votaram também se manifestaram. O ministro Alexandre de Moraes, por exemplo, refutou a ideia de que as plataformas não teriam condições técnicas de moderar o que é postado, principalmente em casos de cyberbullying. “As plataformas têm total condição de controlar o que é uma ofensa racista, nazista ou um ato antidemocrático. O que elas não têm é boa vontade porque lucram com isso”, afirmou.
Já o ministro Kássio Nunes Marques levantou preocupações sobre as decisões das plataformas de retirada ou não de conteúdo e o impacto de tê-las como árbitros de publicações. “A partir do momento que se empodera a plataforma, entregamos um poder absoluto para julgar o que é certo e errado, o que é grave ou não”, afirmou. “O risco do viés ideológico é real. Empoderar plataformas sem limites pode gerar uma espécie de censura privada com base nos interesses delas”.