Na Califórnia, um júri popular sobre um tema até então inédito começou a analisar a ação movida por K.G.M. (denominada, para fins de melhor identificação no tribunal, de Kaley), hoje jovem adulta, que atribui à Meta, ao Google e suas plataformas, como Instagram e YouTube, a responsabilidade por danos psicológicos graves decorrentes de uso iniciado ainda na infância, segundo diz a partir dos seis anos de idade.
A tese central da autora não se limita à existência de conteúdos nocivos, entretanto, como se pode inicialmente imaginar. A causa de pedir de sua pretensão diz respeito ao desenho dos sistemas de recomendação dessas plataformas, a lógica de entrega contínua de estímulos e a arquitetura que teria sido concebida para maximizar retenção mesmo diante de riscos conhecidos para usuários menores de idade, o que – segundo narra – teria acarretado depressão, ansiedade, pensamentos suicidas e distorções na forma como se enxerga.
O julgamento, portanto, inaugura e, ao mesmo tempo, desloca o eixo do debate jurídico das pretensões reparatórias contra as plataformas digitais: o foco deixa de ser o conteúdo da postagem (individual) e passa a ser o produto em si. Essa sinalização decorre do próprio entendimento da juíza do caso, Carolyn Kuhl, de que esse tema deve ser submetido ao escrutínio popular do júri, determinando, portanto, o processamento da ação.
A ação tramita sob fundamentos típicos da responsabilidade civil nos EUA, utilizando-se de elementos do direito do consumidor (defeito de produto), mas com atribuição de responsabilização subjetiva pelos elementos de culpa da negligência e da imprudência, na medida em que há alegações de falha em advertir e ainda de forma adequada sobre riscos previsíveis.
A autora sustenta que as plataformas estruturaram mecanismos de personalização, notificações e recomendação automática capazes de induzir padrões compulsivos de uso, explorando vulnerabilidades cognitivas de crianças e adolescentes – o que teria provocado o mesmo dano em mais de 800 crianças e adolescentes, sendo o caso K.G.M. o leading case para a Corte da Califórnia.
Esse enquadramento altera a natureza da discussão. O julgamento não examina apenas os conteúdos específicos, mas a estrutura que organiza a sua circulação. É a etapa anterior que está em discussão e submetida ao escrutínio do Judiciário californiano. A arquitetura algorítmica, calibrada para prolongar permanência e intensificar engajamento de seus usuários, passa a ser tratada como elemento central do produto em si.
Ao definir o que é priorizado, o que é repetido e o que é invisibilizado, o sistema de recomendação exerce função equivalente a de um editor que organiza a agenda informacional. A controvérsia deixa de ser pontual e assume dimensão estrutural: quem organiza o fluxo de atenção exerce poder.
No ordenamento jurídico nacional, o tema possui sensibilidades, seja para fins constitucionais, seja para fins regulatórios. Como é de conhecimento comum, a radiodifusão depende de autorização pública, mediante concessão, permissão ou autorização (CF, art. 223).
A Constituição, outrossim, estabelece limites à participação estrangeira e de brasileiros naturalizados há menos de dez anos em empresas dessa iniciativa. Há fiscalização, renovação periódica e um regime jurídico que reconhece a centralidade desses veículos na organização da esfera pública. A razão histórica dessas salvaguardas é evidente. Quem estrutura o fluxo de informação influencia agenda política, percepção social e ambiente democrático.
O Marco Civil da Internet, por seu turno, estabeleceu em seu art. 19 a responsabilidade por danos decorrentes de conteúdo gerado por terceiros ao provedor de aplicações de internet, aplicando-se a hipótese responsabilizatória civil se, após ordem judicial específica, o provedor de aplicações não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
Contudo, o que se observa no caso K.G.M. é de outra esfera, revelado por uma outra dimensão. Desloca-se a causa de pedir do conteúdo para o desenho do sistema de recomendação e para a otimização orientada por métricas de engajamento. Com isso, as plataformas digitais deixam de ser apenas coadjuvantes no cenário de responsabilização para ocupar posição estrutural central, todavia, sem enquadramento jurídico equivalente.
A literatura acadêmica dos últimos anos fornece base empírica consistente para a análise do problema experimentado pelos jovens. O estudo de Jonah Berger e Katherine Milkman de 2012 publicado no Journal of Marketing Research em 2012, demonstrou que conteúdos que evocam emoções de alta excitação, especialmente raiva e ansiedade, apresentam maior probabilidade de compartilhamento.
William Brady et al., em pesquisa de 2021, identificaram que expressões de indignação moral nas redes sociais tendem a receber maior difusão, reforçando ciclos de amplificação por meio de mecanismos de recompensa social.
O trabalho de Soroush Vosoughi, Deb Roy e Sinan Aral, publicado na revista Science em 2018, examinou a propagação de mais de 126 mil histórias no Twitter e concluiu que notícias falsas se espalham mais rapidamente e alcançam mais pessoas do que notícias verdadeiras, sobretudo em temas políticos. Documentos internos da Meta tornados públicos em 2021 indicaram que alterações em algoritmos priorizaram interações associadas a maior tempo de permanência, mesmo quando acompanhadas de efeitos colaterais indesejados.
Esses achados evidenciam que sistemas desenhados para maximizar retenção tendem a favorecer padrões emocionais intensos. Quando a lógica de priorização se estrutura em torno de métricas como usuários ativos diários, usuários ativos mensais e tempo médio de permanência, o algoritmo passa a desempenhar função equivalente à de um editor que define hierarquias e relevâncias. A diferença reside na escala, na personalização e na opacidade do processo decisório.
No Brasil, mais de dois terços da população utilizam redes sociais de forma ativa. A televisão linear mantém alcance amplo, mas não opera com granularidade individual. A curadoria algorítmica atua sobre cada usuário de maneira personalizada, ajustando o fluxo informacional com base em dados comportamentais. A formação da opinião pública deixa de resultar de uma pauta comum e passa a ser mediada por múltiplos fluxos individualizados definidos por critérios privados.
O caso levado ao júri na Califórnia, ainda em julgamento ao tempo da produção do presente artigo, sugere que a qualificação dessas plataformas como meros intermediários técnicos não esgota o problema – o que passa a inaugurar tema de elevada importância no Brasil, seja para fins de responsabilidade civil extracontratual, seja para fins de repercussão regulatória. O ECA Digital inicia, de forma louvável, a discussão, mas não a exaure.
A já debatida neutralidade no ambiente virtual pressupõe ausência de intervenção estruturante. Sistemas que organizam hierarquias de visibilidade, selecionam estímulos com base em probabilidade de retenção e modulam alcance de acordo com padrões comportamentais exercem influência substantiva sobre o ambiente informacional e, segundo a tese apresentada, sobre a própria saúde mental de usuários vulneráveis.
A União Europeia avançou ao incorporar no Digital Services Act obrigações de avaliação e mitigação de riscos sistêmicos, inclusive relacionados à proteção de menores. O debate brasileiro ainda se concentra predominantemente na responsabilidade civil extracontratual e por conteúdo e em mecanismos de notificação e retirada (Lei 12.965/14, art. 19). A análise da curadoria algorítmica como elemento central do desenho institucional do espaço público permanece incipiente.
O veredito no caso K.G.M. poderá influenciar a forma como tribunais examinam a relação entre design de produto digital, previsibilidade de dano e dever de diligência. Se o júri reconhecer que determinadas escolhas de arquitetura intensificaram riscos conhecidos e contribuíram de maneira relevante para danos psicológicos, a responsabilidade das plataformas deixará de ser tratada exclusivamente sob a ótica de neutralidade tecnológica para ser tratada como vício de produto e, assim, permitir responsabilizações civis de novo alcance.
Ao longo do século 20, o diretor de redação representava a instância responsável por organizar o fluxo informacional. Hoje, essa função é desempenhada por modelos matemáticos treinados para maximizar métricas específicas. O julgamento em curso na Califórnia recoloca a questão em termos mais amplos. Quando a arquitetura do sistema define o que cada indivíduo vê, com que intensidade e em que sequência, ela passa a ocupar posição semelhante àquela historicamente atribuída aos veículos de comunicação de massa.
A diferença é que o editor contemporâneo é um modelo matemático orientado por métricas de retenção. Se a mídia tradicional sempre foi tratada como instância de poder sujeita a responsabilidades proporcionais à sua influência, a curadoria algorítmica não pode permanecer fora dessa reflexão.
O ordenamento jurídico brasileiro começa, timidamente, a reconhecer essa dimensão. O ECA Digital representa o primeiro avanço legislativo nacional a exigir, explicitamente, “medidas razoáveis desde a concepção” dos serviços digitais acessíveis a crianças e adolescentes, incluindo obrigações de proteção contra exploração comercial nas plataformas.
A novidade é relevante, mas ainda insuficiente para enfrentar o problema em sua dimensão estrutural. A lei avança sobre o produto final, mas não nomeia a curadoria algorítmica como conduta própria e autônoma da plataforma – exatamente o núcleo do que está sendo julgado na Califórnia.
Se a lógica do ECA Digital for levada às suas consequências jurídicas mais consistentes, a exigência de proteção “desde a concepção” implica que o design do sistema de recomendação – e não apenas o conteúdo que ele distribui – passa a ser objeto direto de obrigação legal. O veredito californiano, nesse sentido, não é apenas referência comparada: é o precedente que pode orientar como tribunais e reguladores brasileiros interpretarão esse silêncio normativo.