Enquanto o Brasil debate a regulação de plataformas digitais e o impacto das redes sociais sobre crianças e adolescentes, um tribunal em Los Angeles está julgando um caso que pode redefinir a relação entre a sociedade e as big techs em escala global.
Pela primeira vez, um júri popular nos Estados Unidos vai decidir se empresas como Meta e Google podem ser responsabilizadas pelos danos que seus produtos causam a jovens usuários. Não pelo conteúdo que terceiros publicam nessas plataformas, mas pelas decisões de design que as tornam deliberadamente viciantes.
Este não é um caso qualquer. Ele reúne centenas de demandantes, representados pelo caso-teste da jovem K.G.M., no âmbito de um Procedimento de Coordenação do Conselho Judicial (JCCP) da Califórnia, incluindo famílias e distritos escolares. A solução desta disputa influenciará diversos processos estaduais e federais em andamento em todos os EUA.
O desfecho terá consequências que ultrapassarão as fronteiras dos Estados Unidos — e o Brasil, com seu próprio debate sobre regulação digital e proteção infantil, tem muito a aprender com o que está acontecendo naquela corte.
Design como produto, não como expressão
O argumento central da defesa das big techs é conhecido: a Seção 230 da Lei de Decência nas Comunicações, de 1996, as protege de responsabilidade pelo conteúdo publicado por usuários. Essa proteção foi fundamental para o crescimento da internet como a conhecemos. Mas o caso K.G.M. desloca a questão de território: não se trata do que as pessoas postam, mas de como as plataformas são construídas. O enfoque está no design das arquiteturas informacionais. Desta forma, entramos no espaço de responsabilidade por produtos defeituosos e, se o caso fosse no Brasil, de direitos do consumidor.
Rolagem infinita. Reprodução automática. Notificações calibradas para gerar ansiedade. Sistemas de recompensa variável que funcionam segundo a mesma lógica dos caça-níqueis. Essas não são publicações de usuários; são decisões de engenharia, tomadas por equipes de produto e otimizadas por algoritmos de aprendizado de máquina, cujo objetivo é maximizar o tempo de permanência, pois esse tempo se converte em receita publicitária.
A juíza Carolyn Kuhl, do Tribunal Superior da Califórnia, entendeu que essa distinção deve ser analisada por um júri. Ao permitir que o caso prosseguisse, ela sinalizou algo profundo: que decisões algorítmicas podem ser tratadas como decisões de produto, e, portanto, sujeitas às mesmas obrigações de segurança e diligência que qualquer outro setor industrial.
O que os algoritmos fazem e o que as empresas sabiam
Para compreender a gravidade do que está em julgamento, é preciso entender o que esses sistemas fazem. Os algoritmos de recomendação das grandes plataformas são treinados com volumes massivos de dados comportamentais. Eles não “entendem” conteúdo como humanos; otimizam as probabilidades. Funcionam em três camadas: coleta e modelagem do perfil do usuário, classificação preditiva do conteúdo disponível e ranqueamento personalizado em tempo real.
A literatura acadêmica e documentos internos já revelados em processos judiciais mostram que esses sistemas tendem a amplificar conteúdo que gera reações emocionais intensas (indignação, medo e excitação) porque esse tipo de conteúdo provoca maior interação. O sistema aprende continuamente com o comportamento do usuário, criando ciclos de retroalimentação que podem levar à radicalização progressiva, à polarização e à exposição repetitiva a conteúdos prejudiciais.
E aqui está o ponto que transforma este caso em algo comparável à litigância contra a indústria do tabaco: as empresas sabiam. Os chamados Facebook Papers, vazados em 2021, revelaram que a própria Meta possuía pesquisas internas que demonstravam que o Instagram agravava problemas de imagem corporal entre adolescentes. A empresa optou por priorizar o engajamento. A analogia com o tabaco não é retórica, é estrutural.
O instituto Project Liberty, dos EUA, utilizou a expressão “momento tabaco” para designar a conjuntura atual das big techs. Há dezenas de documentos internos que foram intencionalmente afastados do grande público e produzem indícios de cognição por parte de lideranças dessas empresas sobre o caráter aditivo de certas escolhas de design.
Crianças não são adultos em miniatura
Do ponto de vista científico, o debate sobre se as redes sociais causam “vício” no sentido clínico ainda está em aberto. O DSM-5 não classifica o uso de redes sociais como transtorno aditivo. Pesquisadores preferem falar em “padrões de uso problemático com características aditivas”.Mas essa cautela terminológica não deve obscurecer o que já sabemos com clareza: crianças e adolescentes são neurologicamente mais vulneráveis aos mecanismos que essas plataformas empregam.
O córtex pré-frontal, responsável pelo controle de impulsos e pela tomada de decisões, só se desenvolve plenamente por volta dos 25 anos. Isso significa que um adolescente exposto a sistemas de recompensa variável, otimizados por inteligência artificial para maximizar o engajamento, está numa posição radicalmente diferente da de um adulto que usa a mesma plataforma. Desenhar produtos que exploram essa vulnerabilidade não é inovação responsável, é negligência que busca lucro a qualquer custo.
O que isso tem a ver com o Brasil
O Brasil não é observador passivo nesse debate. Com mais de 180 milhões de usuários de internet e uma das maiores populações de redes sociais do mundo, o país é, ao mesmo tempo, um dos maiores mercados dessas plataformas e uma das sociedades mais expostas a seus efeitos.
O Marco Civil da Internet, aprovado em 2014, foi inovador ao estabelecer princípios de neutralidade da rede e de proteção de dados. Mas foi desenhado para uma internet que já não existe. A questão central que o caso K.G.M. coloca — se o design algorítmico constitui conduta própria da empresa, distinta da mera publicação de conteúdo de terceiros — ainda não foi adequadamente enfrentada pelo marco regulatório brasileiro.
A Lei Geral de Proteção de Dados (LGPD) avançou em matéria de consentimento e tratamento de dados pessoais, mas não aborda diretamente o tema do design persuasivo e seus efeitos sobre populações vulneráveis.
A principal inovação jurídica no Brasil foi o Estatuto da Criança e do Adolescente Digital (ECA Digital), que entra em vigor em março de 2026. Os serviços digitais com acesso provável de crianças e adolescentes devem garantir, por lei, a proteção integral e a prevalência de seus interesses. A lei institui o fundamento de proteção contra a exploração comercial em plataformas e “medidas razoáveis desde a concepção”, com o objetivo de prevenir e mitigar riscos de exposição a uma série de conteúdos ilícitos, como incitação a comportamentos que levem a danos à saúde mental.
Não é simples demonstrar o nexo causal entre o design de plataformas e danos psicológicos em crianças e adolescentes. No entanto, o julgamento do caso K.M.G. pode influenciar o sistema de justiça no Brasil quanto à análise de falhas no dever de segurança de produtos e de prevenção de danos, combinando a tradição do Código de Defesa do Consumidor com o novo ECA Digital.
Tecnologia de interesse público: uma agenda para o Brasil
A questão fundamental não é se devemos regular a tecnologia, mas sim a partir de quais valores. O modelo atual opera segundo uma lógica extrativista: dados comportamentais são extraídos em massa, processados por sistemas algorítmicos opacos e convertidos em insumos para modelos de negócio focados em publicidade.
As externalidades — danos à saúde mental, erosão da privacidade, polarização política — são socializadas, enquanto os lucros são privatizados. Nos EUA, uma ação movida por 200 escolas exige reparação pelos gastos com psicólogos de saúde mental e profissionais recrutados apenas para lidar com problemas de ansiedade, depressão e transtornos relacionados ao uso excessivo de plataformas e redes sociais.
Isso não é inevitável. É uma escolha de design. E as escolhas de design podem ser redesenhadas.
A União Europeia já se move nessa direção com o Digital Services Act, que impõe obrigações de transparência algorítmica e de avaliação de riscos sistêmicos. A acusação recente contra o TikTok por uso de reprodução automática e de rolagem infinita mostra que a convergência regulatória global já está em curso.
O ECA Digital coloca uma missão renovada para a Agência Nacional de Proteção de Proteção de Dados e a ampla comunidade de defesa dos direitos de crianças e adolescentes, com seus cinco mil conselheiros tutelares e centenas de promotores de justiça de infância.
Um país com as desigualdades digitais do Brasil precisa pensar na regulação de plataformas não apenas como questão de proteção ao consumidor, mas também como questão de design ético e de justiça social preventiva. Comunidades periféricas, populações indígenas e jovens em situação de vulnerabilidade são desproporcionalmente afetados pelos efeitos colaterais de um modelo de negócios que não foi concebido com seus interesses em mente.
Em determinados contextos sociais, vícios em redes sociais e plataformas se acoplam com utilização de jogos de aposta ou ingresso em mercados ilícitos de exploração de imagem de crianças e adolescentes, como denunciado pelo comunicador Felca em 2025. Por isso, exige-se uma postura preventiva das big techs que deverá ser mais sensível aos múltiplos contextos de utilização de seus serviços.
O julgamento é lá, mas a lição é nossa
O julgamento em Los Angeles não vai resolver sozinho a crise de governança da internet. Mas pode marcar um possível ponto de inflexão: o momento em que sociedades democráticas passaram a tratar decisões algorítmicas como o que elas são em mercados digitais — decisões de produto, com consequências reais sobre pessoas reais, sujeitas a obrigações reais de segurança e responsabilidade.
Tecnologia de interesse público não é tecnologia contra a tecnologia — é tecnologia a serviço das pessoas. Com os avanços do ECA Digital, abre-se uma nova arena de debates sobre vícios, o design de arquiteturas e a responsabilidade das big techs na contenção de danos sociais.
Para designers e cientistas da computação no Brasil, é um momento de mudanças profundas no que diz respeito ao design ético e à responsabilidade na construção de arquiteturas informacionais e ambientes digitais. Não precisamos repetir a história das big techs em nossas empresas e em nossos mercados digitais. Há espaço para inovação responsável e para a formação de tecnologistas de interesse público que levem a sério a primazia do melhor interesse das crianças e adolescentes.