Adultização e erotização são fenômenos antigos, que independem de redes sociais. Adultização acontece quando se impõe a uma criança comportamentos, responsabilidades ou características típicas da vida adulta, sem respeitar seu tempo de desenvolvimento. Erotização é a exposição ou incentivo precoce da sexualidade de menores, colocando-os em situação de vulnerabilidade.
O Estatuto da Criança e do Adolescente (ECA) existe justamente para proteger os menores contra exploração de todos os tipos, inclusive a sexual. Mas aplicar essa proteção não é simples. Se o comportamento de Hytalo Santos pudesse ser objetivamente considerado criminoso, ele estaria preso há tempos, visto que não é de hoje que ele está na mira do Ministério Público e de outros órgãos da Justiça.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
O que vale nas ruas deve valer nas redes
O PL 2628, já aprovado no Senado, visa garantir proteção e segurança para menores no ambiente online, ou seja, expandir fundamentos já existentes para que os direitos das crianças também possam ser aplicados nas redes sociais.
Em teoria, uma nova lei nem deveria ser necessária, visto que o que é proibido nas ruas também deve ser proibido nas redes. Mas operacionalizar essa transição de direitos do mundo offline para o online não é tão simples.
Barreiras de entrada e de saída nas plataformas
Redes sociais são plataformas de conteúdo gerado por usuários. Diferentemente das mídias tradicionais, elas não produzem o conteúdo que disponibilizam. É como se não houvesse barreira de entrada: qualquer pessoa com celular e internet pode publicar.
Só que, diante dessa abertura quase ilimitada, as plataformas criaram uma barreira de saída: a moderação de conteúdo. É a forma de tentar segurar o que não deveria circular. E aqui entra o primeiro nó: se minha dancinha cai, mas a da Anitta continua, é sinal de que as regras nem sempre são claras ou aplicadas de forma consistente. É também a explicação mais simples para entender por que tantos vídeos de Hytalo Santos permaneceram online por tanto tempo.
Como funciona a moderação de conteúdo
A moderação de conteúdo é o conjunto de atividades que tenta garantir que aquilo que circula em uma plataforma esteja dentro das regras da casa. Ela tem três funções principais: remover conteúdos que violam as regras; controlar conteúdos de risco; e definir o que pode ou não ser distribuído organicamente ou impulsionado por anúncios.
Esse processo costuma ter duas etapas interdependentes:
- Moderação automática, feita por modelos computacionais que detectam palavras, imagens, áudios ou sinais que violam regras. É escalonável e quase instantânea;
- Moderação humana, realizada por pessoas que analisam casos específicos com mais nuance.
Além da moderação de conteúdo, existe a moderação de usuários, que funciona como o sistema de pontos da carteira de habilitação: você pode cometer algumas infrações sem perder sua carteira, mas se acumular demais, fica suspenso. Só que, na internet, não existe “uma carteira só”: é possível criar várias contas, inclusive na mesma plataforma, e seguir publicando.
Ter múltiplos perfis não é necessariamente um problema. Eu poderia usar um perfil do Instagram diferente para compartilhar diferentes aspectos da minha vida: cientista política, escritora, pessoa privada. No ambiente digital, posso alternar perfis quase sem limites; mas é impossível escolher qual versão minha vai dirigir um carro – afinal, sou apenas uma pessoa motorista.
Entre segurança, direitos e lucro
Existem discussões técnicas, teóricas e éticas sobre até onde deve ir a moderação. Afinal, não queremos viver em um filme como Minority Report, no qual crimes são punidos antes mesmo de acontecerem. Essa lógica de prever e punir intenções comprometeria liberdades fundamentais essenciais à democracia.
O desafio é equilibrar segurança, direitos dos usuários e, claro, os lucros que as plataformas – empresas privadas, no fim das contas – buscam. Se esse equilíbrio fosse simples, a internet já seria um ambiente limpo e saudável.
O papel dos algoritmos de recomendação
Moderação de conteúdo e algoritmos de recomendação são coisas diferentes, mas interdependentes. Em plataformas sérias, os algoritmos só recomendam conteúdos que não foram considerados violadores. Isso não significa que passaram por aprovação humana. Muitas vezes, o conteúdo circula apenas porque a moderação automática não identificou problemas – e assim ele pode ser distribuído em escala.
O volume é o inimigo da moderação humana. Só no YouTube, a cada minuto, 500 horas de vídeos são publicadas. É humanamente impossível revisar tudo. Daí a aposta: melhorar a moderação automática.
Inteligência artificial: promessa e dilema
Para melhorar a moderação, precisamos treinar inteligência artificial capaz de identificar casos de adultização e erotização de menores. Mas isso traz um dilema ético delicado: para que a IA aprenda a reconhecer esse tipo de conteúdo, precisa ser exposta a ele.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
E há outro risco. Modelos como o ChatGPT são generativos, ou seja, não apenas identificam padrões, mas também produzem novos conteúdos. Isso significa que, se treinada com material sensível, a inteligência artificial teria a capacidade de reproduzir o mesmo tipo de problema que deveria combater.
Tudo é amplificado na internet
As redes sociais amplificam problemas antigos da sociedade – bullying, discurso de ódio, pedofilia, violência. Mas com características próprias: velocidade, volume, alcance, perenidade e precisão.
Comparado à vida offline, tudo é mais rápido, maior, mais visível, mais duradouro e mais direcionado. É por isso que a proteção de crianças e adolescentes nas redes exige não apenas leis e fiscalização, mas também tecnologia aplicada de forma ética, responsabilidade social e pressão pública.