Como o PL da IA aborda a proteção integral de crianças e adolescentes?

  • Categoria do post:JOTA

A noção de que o avanço do campo da inteligência artificial (IA) está modificando a vida sobremaneira e a transformação vindoura é de ordem gigantesca já não são novidades. A IA hoje faz parte do cotidiano das pessoas em todo o planeta. Algoritmos de IA medeiam as interações nas redes sociais, estão presentes em diagnósticos médicos, na tradução automática de idiomas, no reconhecimento de voz, em sistemas de vigilância, nas análises de crédito, no comércio virtual, nas contratações de trabalhadores, em jogos eletrônicos, na ciência, na educação e na pesquisa. Também está presente por meio de aplicações em veículos autônomos, na robótica e no planejamento logístico, entre outros.

Contudo, ainda muito pouco se fala acerca da relação da IA com as crianças e com os adolescentes, seus impactos, oportunidades e riscos. Para além das instituições vocacionadas para o tema, como é o caso, no cenário internacional, do Unicef e da Unesco, bem como de organizações globais e locais dedicadas ao trabalho em prol da promoção e proteção dos direitos da criança e do adolescente, esse debate quando desponta fica restrito ao tema da educação. Pouco aparece quando o assunto é governança ou regulação.

Ocorre que, além do fato de crianças e adolescentes representaram um enorme contingente de pessoas no mundo inteiro – estima-se que 68,6 milhões de crianças e adolescentes entre 0 e 19 anos residiam no Brasil em 2022, conforme o último censo do IBGE –, são hipervulneráveis a priori por conta do período de desenvolvimento biopsicossocial em que se encontram e em razão do potencial impacto da falta de cuidado e de violências que sejam perpetradas durante essa fase de vida do ser humano, seja para o indivíduo, seja para a coletividade, de imediato, no presente da vida da criança, ou no futuro, para a sua vida adulta.

E mais, considerando-se que a IA permite que um software aprenda a partir de padrões por meio da combinação de grandes quantidades de dados com algoritmos e que tem sido, principalmente, pela internet que esses dados estão sendo coletados, é relevante considerar que crianças e adolescentes representam 1/3 dos usuários de internet em todo o mundo e que, no Brasil, 9 em cada 10 pessoas, entre 9 e 17 anos, são usuárias de internet.

Daí a imprescindibilidade de crianças e adolescentes serem considerados, de forma prioritária, em todas as discussões relacionadas à IA. Não por acaso a legislação brasileira assegura a esse grupo social a mais alta atenção e proteção. Em toda a Constituição Federal é somente no art. 227 que as palavras “absoluta” e “prioridade” estão unidas, garantido a essas pessoas a precedência e a primazia quanto à garantia de seus direitos humanos e fundamentais, a serem efetivados, como um dever de cuidado, pelo Estado, pelas famílias, pela comunidade, e por toda a sociedade, inclusive pela iniciativa privada, em uma responsabilidade compartilhada, tal qual expressamente consignado no referido dispositivo e no art. 4º do ECA.

É por isso que se saúda a escolha do PL 2338/2023 de elevar a relevância dos impactos da IA junto a crianças e adolescentes, na multiplicidade de suas infâncias e adolescências, sobretudo com atenção àquelas em situação de maior vulnerabilidade socioeconômica. Especialmente por se tratar de um país do sul global – região que reúne 75% das crianças e dos adolescentes do planeta –, com os seus inerentes desafios presentes e futuros e os seus alarmantes níveis de desigualdade, que permitem que 50,8% da população de crianças e adolescentes com menos de 14 anos viva em condição domiciliar de baixa renda, ou seja, em lares com renda domiciliar per capita de até 1/2 salário mínimo.

Nesse sentido, o substitutivo mais recente do texto do PL 2338, publicado em 18 de junho, reconhece a proteção integral de crianças e adolescentes enquanto um fundamento e um princípio para desenvolvimento e implementação de sistemas de IA no Brasil (art. 2º, XIV e art. 3º, XIV). Trata-se de orientação normativa imprescindível, que possui correspondência com o art. 227 da CF/88 e com a gramática normativa do ECA e da Convenção Sobre Direitos da Criança das Nações Unidas (Decreto 99.710/1990), exigindo a responsabilidade compartilhada e prioritária de toda a sociedade – incluindo Estados, famílias e setor empresarial – na prevenção de danos e promoção de direitos desse grupo.

O novo parecer substitutivo apresenta preocupação expressa com a saúde mental e o desenvolvimento integral de crianças e adolescentes no contato com sistemas de IA. Ao definir quais são os sistemas de IA de Alto Risco, o parecer já classifica aqueles desenhados para maximizar o tempo e engajamento de pessoas online (art. 14, XIII) e determina, como critério para classificação posterior, a necessidade de observar o potencial impacto negativo ao desenvolvimento integral de crianças e adolescentes (art. 15, XII).

As definições são importantes, na medida em que os fornecedores de sistemas de alto risco possuem obrigações adicionais a serem adotadas para prestação de contas democrática, como: i) o desenvolvimento, atualização e publicização de resultados de Avaliações de Impacto Algorítmicas (art. 25); ii) a obrigação de eliminar ou reduzir riscos do sistema, atreladas ao desenvolvimento de um plano de mitigação com metas e responsabilidades definidas (art. 27, §1º, e);  iii) a realização de auditorias externas pela Autoridade fiscalizadora ou por entes externos independentes, incluindo instituições de pesquisa (art. 48, VII, VIII e IX); iv) a consulta de públicos afetados (art. 28) e v) a realização de testes robustos de confiabilidade, segurança, proteção e robustez (art. 18, V).

Nessa lógica, sistemas de IA desenhados para manipular o tempo de tela e induzir a dependência de um usuário criança ou adolescente, como forma de lucrar sobre sua experiência de vida, receberam preocupação especial do legislador. É adotado um modelo policêntrico de governança, no qual diferentes atores participam da avaliação, fiscalização e controle de sistemas, contribuindo dentro da noção de uma responsabilidade compartilhada pelo impacto das tecnologias.

Outro avanço notável do novo parecer do PL é de reforço à disposição dos arts. 240 e seguintes do ECA, para proibir que o desenvolvimento, a implementação e o uso de sistemas de IA produzam ou facilitem a criação de imagens de abuso ou exploração sexual de crianças e adolescentes, sintéticas ou não, ou, ainda, que possibilitem a sua disseminação (art. 13, IV). Em comparação com o texto inicial, que limitava o escopo apenas às imagens de abuso infantil, o novo texto é mais amplo e estende a proteção expressa aos adolescentes. Endereça, assim, a grave disseminação de deep nudes infantojuvenis, atreladas ao aumento expressivo de circulação de imagens de abuso na internet e coíbe não apenas a criação e uso dessas ferramentas, mas também o seu fácil acesso.

A proteção especial de crianças e adolescentes é garantida, também, pelo seu reconhecimento expresso enquanto um grupo vulnerável perante sistemas de IA (art. 4º, XVII). A definição de “vulnerabilidade”[1] do PL 2338 abarca pessoas ou grupos que, devido a condições pessoais, incluindo idade e condições cognitivas e socioeconômicas, possuem maior assimetria de informação ou de poder perante os sistemas. Para grupos vulneráveis, o PL estabelece as seguintes prerrogativas:

qualificação das obrigações de informação e de transparência para sua compreensão: determina que fornecedores adotem linguagem simples, clara e apropriada à idade e à capacidade cognitiva desse grupo de usuários vulneráveis (art. 5º, §2º);
sistemas implementados em prol de seu melhor interesse: obriga, sempre, a observação do melhor interesse desses grupos na implementação de quaisquer sistemas  (art. 5º, §2º);
critério para definir IAs de Alto Risco: lista a afetação significativa de grupos vulneráveis como critério de alto risco (art. 15, IV e VIII) e exige o mapeamento de impactos específicos a esse grupos (art. 39, §1º);
priorização na gestão de riscos: prioriza a proteção de seus direitos na adoção de medidas de gerenciamento de riscos e de impactos causados pela IA (art. 8º, VI) e na elaboração de regras e boas práticas voluntárias (art. 39, §1º);
participação na governança: exige expressa e especialmente a consulta e participação de grupos vulneráveis na elaboração de Avaliação de Impacto Algorítmico (art. 28) e na governança participativa de IAs promovida pela administração pública (art. 67, I);
conscientização e treinamento internos: exige especial atenção para grupos vulneráveis na adoção de medidas internas de conscientização, treinamento e capacitação de profissionais e desenvolvedores (art. 17, §3º).

O parecer também apresenta uma visão programática para a educação brasileira a fim de enfrentar novos desafios de um mundo crescentemente tecnológico. O PL determina que o Estado desenvolva programas de qualificação e requalificação técnica (art. 69, I) e de letramento algorítmico (art. 73), que fortaleçam a compreensão sobre o funcionamento, os riscos e benefícios da IA (art. 69, §2º), priorizando-se a educação básica (art. 69, II). Estabelece, também, que o uso de IA na educação é uma atividade de alto risco (art. 14, II), sujeita a maiores obrigações de monitoramento de impactos e de prestação de contas.

As menções do novo parecer substitutivo, embora não exaustivas, demonstram a preocupação do legislador com as vulnerabilidades intrínsecas a indivíduos e grupos sociais, especialmente o de crianças e adolescentes. O arranjo regulatório complexo, que estabelece direitos aos usuários e diferentes obrigações conforme os níveis de risco, evidencia essa preocupação. De qualquer forma, ainda há preocupações importantes a serem  endereçadas, como a questão das tecnologias de reconhecimento facial em locais públicos e seu potencial de criação de uma cultura de vigilância constante.

Por fim, vale destacar que boas práticas internacionais vêm apontando medidas imprescindíveis para a proteção de crianças e adolescentes no contexto da IA. Dentre elas: i) o envolvimento da comunidade escolar nas avaliações de impacto e sua consulta obrigatória antes da adoção de tecnologias; ii) a adoção da métrica de “bem-estar de crianças e adolescentes” como indicador primário de sucesso para medir a qualidade dos sistemas; iii) a garantia expressa de que a IA não substituirá o direito de acesso a serviços presenciais e humanizados de educação e saúde e iv) a promoção de programas de financiamento voltados ao desenvolvimento tecnológico em prol do melhor interesse de crianças e adolescentes.

O fortalecimento dessas obrigações pode ser crucial para reforçar um olhar ainda mais atento aos direitos desse público, em que pese parte delas poderem ser decorrentes de atividades de regulamentação posterior. De fato, muito do sucesso do PL 2338 dependerá da regulamentação subsequente e de uma atuação efetiva do arranjo regulatório. Em um tempo em que a tecnologia avança rápida e sem freios, garantir a prioridade absoluta de direitos de crianças e adolescentes nesse arranjo é imprescindível. Atrasos na efetiva implementação das disposições propostas podem fazer com que gerações cresçam desprotegidas em um cenário de alta incerteza. Esse não deve ser um risco que estamos dispostos a correr.

[1] Aqui, não devemos confundir o conceito de vulnerabilidade do PL de IA (art. 4º, XVII) com a vulnerabilidade presumida a todos os consumidores (art. 4º, I, CDC), nem à hipossuficiência presumida em razão de idade, saúde, condição social ou conhecimento (art. 39, VI, CDC), sendo a definição e os critérios de reconhecimento dispostos no substitutivo diferentes da lógica consumerista.

BRASIL. Comissão Temporária Interna sobre Inteligência Artificial no Brasil do Senado Federal. Relatório Legislativo do Projeto de Lei nº 2.338/2023. Dispõe sobre o desenvolvimento, fomento, uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana. Brasília, 18 jun. 2024. Disponível em: https://legis.senado.leg.br/sdleg-getter/documento?dm=9640105&ts=1718902557011&rendition_principal=S&disposition=inline. Acesso em 20 jun. 2024.

FILGUEIRAS, Fernando; ALMEIDA, Virgílio. Governance for the Digital World: Neither More State Nor More Market. Londres: Palgrave MacMillan, 2020.

HENRIQUES, Isabella. Direitos fundamentais da criança no ambiente digital. São Paulo: Revista dos Tribunais Thomson Reuters, 2023.

KAUFMAN, Dora. Desmistificando a inteligência artificial. Belo Horizonte: Autêntica, 2022.

MENDONÇA, Ricardo Fabrino; FILGUEIRAS, Fernando; ALMEIDA, Virgílio. Algorithmic Institutionalism: The Changing Rules of Social and Political Life. Oxford: Oxford University Press, 2023.

RUSSEL, Stuart; NORVIG, Peter. Inteligência Artificial. Rio de Janeiro: Elsevier, 2013.

UNITED NATIONS CHILDREN’S FUND (UNICEF). Policy guidance on AI for children. Nova York: Office of Global Insight and Policy, 2021. Disponível em: https://www.unicef.org/globalinsight/media/2356/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf. Acesso em 20 jun. 2024.