A proposta de uma regulação brasileira sobre inteligência artificial (PL 2338/2023) poderá se converter na primeira lei abrangente no Brasil a tratar especificamente do tema. Os princípios gerais estabelecidos no PL 2338, na sua maioria, são aqueles consagrados internacionalmente para regular inteligência artificial, seja nos EUA, União Europeia, China ou em princípios éticos desenvolvidos por organizações como Unesco e OCDE: não discriminação, transparência, explicabilidade, acurácia, eficiência, proteção de dados, entre outros.
Essa aparente convergência, porém, oculta duas grandes questões relacionadas à sua implementação. O presente artigo se propõe a examiná-las e identificar formas para lidar com tais desafios.
Conflito interno: a materialização do princípio
Primeiro, a questão da materialização do princípio, da determinação prática do seu conteúdo. O que significa transparência na prática? Como determinar se uma prática é discriminatória? Tais especificações requerem determinações técnicas que concretizem princípios.[1]
Por exemplo, como determinar se uma amostra de reconhecimento facial é suficientemente acurada para ter seus resultados juridicamente considerados? O PL 2338 não contém especificações técnicas sobre o tema. Essas questões são geralmente tratadas por entidades que emitem normas de estandardização técnica, como o Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), que publicou documento intitulado “Estandardização para Requisitos Técnicos do Reconhecimento Facial”[2], contendo detalhadas instruções sobre amostras de reconhecimento facial. No Brasil, a Associação Brasileira de Normas Técnica (ABNT) tem produzido normas técnicas sobre o tema da inteligência artificial.[3]
Conflito externo: potencial colisão entre princípios
Segundo, há a questão do potencial conflito entre diferentes princípios. A proporcionalidade já foi apontada como importante tema no contexto da regulação europeia.[4] O próprio PL 2338 elucida, em seu Art. 3º, XII, que deve haver “proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial”. É necessária uma metodologia para resolver tais conflitos, seja uma forma de aplicação do princípio da proporcionalidade, de balanceamento de considerações ou diálogo das fontes.[5]
Por exemplo, o princípio da explicabilidade da inteligência artificial pode colidir com o princípio da robustez ou acurácia da tecnologia. Discussões técnicas a respeito do design das tecnologias de IA normalmente apresentam essa dicotomia: sistemas mais acurados, cujos resultados tendem a ter melhor performance muitas vezes envolvem mais dados ou um maior número de parâmetros, por exemplo, implementando técnicas de deep learning.[6]
Essas técnicas mais complexas, porém, são geralmente opacas, seja porque os parâmetros e critérios estabelecidos não são transparentes, seja porque, mesmo se transparentes, envolvem um grau significativo de complexidade, de tal forma que o funcionamento da tecnologia em detalhe é dificilmente inteligível, mesmo para especialistas. A escolha entre melhor performance, de um lado, ou maior explicabilidade ou interpretabilidade, portanto, envolve um ponderamento entre esses princípios, que deve considerar o contexto fático, técnico e jurídico específico.
Possibilidades
A incorporação de direitos fundamentais e valores éticos em normas de padronização técnica
A elaboração de normas de padronização técnica em conformidade com valores éticos e direitos fundamentais seria uma maneira de orientar a materialização e equilibrar diferentes princípios.[7] No âmbito de organizações de estandardização, técnicas internacionais, por exemplo, a regra de padronização técnica ISO 26000: 2010 sobre responsabilidade social se tornou referência para empresas que buscam se adequar a princípios fundamentais governando essa matéria.[8]
A incorporação de direitos fundamentais e valores éticos em normas de padronização técnica apresenta simultaneamente vantagens e desvantagens.[9] Por um lado, tais normas são difundidas e levadas em consideração por engenheiros desenvolvendo diferentes tipos de tecnologia, para os quais incorporar padrões técnicos precisos é mais prático do que implementar regras jurídicas.
Por outro lado, a incorporação de direitos fundamentais em padrões técnicos necessariamente acarreta um reducionismo do princípio/regra jurídica e sua potencial interpretação para se moldar à regra técnica.
Regulação de risco
O PL 2338 propõe regular as tecnologias de inteligência artificial com base no risco que apresentam, classificando-as em três categorias principais.[10] A classificação de tecnologias de IA em diferentes categorias de risco, com diferentes regras respectivamente aplicáveis, representa uma aplicação do princípio da proporcionalidade, já que diferentes obrigações refletindo princípios recairão de forma distinta considerando o risco da tecnologia.
Ademais, a classificação de tecnologias em determinadas categorias – e aplicação de uma ponderação indireta entre princípios – não é imutável, mas pode ser atualizada com o tempo, conforme esclarece o art. 18 do projeto, que lista os diferentes critérios para que essa classificação inicial seja revista.
Considerações finais
A ponderação entre os diferentes princípios governando a inteligência artificial será um dos desafios envolvendo sua regulamentação. Certo é que o diálogo das fontes pode realizar esta sistematização e ponderação necessárias, mas é necessário aprovar o PL 2338, que faz expressa menção à necessidade de harmonia na aplicação de normas e princípios.
O PL 2338 objetiva estabelecer “normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de IA no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana…” (art. 1º).
Fica assim cristalizado que o objetivo também aqui é pro homine e em seu art. 44 ordena o diálogo das fontes, afirmando em suas disposições finais, a abertura do sistema em seu art. 44: “os direitos e princípios expressos nesta Lei não excluem outros previstos no ordenamento jurídico pátrio ou nos tratados internacionais em que a República Federativa do Brasil seja parte”.
Para bem regular o ambiente digital e a inteligência artificial precisamos de regras como as previstas no PL 2338, ou os conflitos serão inevitáveis.
[1] MICKLITZ, Hans-W. AI Standards, EU Digital Policy Legislation and Stakeholder Participation. Journal of European Consumer and Market Law, v. 12, n. 6, p. 212-225, 2023.
[2] IEEE STANDARD FOR TECHNICAL REQUIREMENTS FOR FACE RECOGNITION. Disponível em: https://standards.ieee.org/ieee/2945/10472/#:~:text=IEEE%20Standard%20for%20Technical%20Requirements%20for%20Face%20Recognition&text=A%20general%20technical%20architecture%20and,application%20of%20face%20recognition%20systems. Acesso em: 21.06.2024.
[3] Por exemplo, a norma técnica ABNT NBR ISO/IEC 42001:2024 sobre Inteligência Artificial – Sistema de Gestão.
[4] HAATAJA, Meeri; BRYSON, Joanna J. Reflections on the EU’s AI Act and how we could make it even better. 2022. Disponível em: https://static1.squarespace.com/static/5e13e4b93175437bccfc4545/t/623254b3e9ae96717d593c10/1647465652248/reflections-on-the-EUs-AI-act-and-how-we-could-make-it-even-better-meeri-haataja-joanna-j-bryson.pdf. Acesso em: 20.06.2024. p. 7
[5] JAYME, Erik. Identité Culturelle et Intégration: Le droit international privé postmoderne. Cours général de droit international privé. p. 9-268. In: Recueil des Cours: collected courses of the Hague Academy of International Law. Tomo 251. Haia: Martinus Nijhoff Publishers, 1996, p. 60 seg.
[6] SELBST, Andrew D.; BAROCAS, Solon. The intuitive appeal of explainable machines. Fordham Law Review, v. 87, 2018. p. 1109 e ss.
[7] HO-DAC, Marion. Considering Fundamental Rights in the European Standardisation of Artificial Intelligence: Nonsense or Strategic Alliance? In: Joint EURAS & SIIT 2023 Conference – (Responsible) Standardisation for Smart Systems, 2023. Joint Proceedings EURAS & SIIT 2023. ISBN 9783958864917. Disponível em: https://hal.archives-ouvertes.fr/hal-04411136. Acesso em: 19.06.2024.
[8] INTERNATIONAL ORGANIZATION FOR STANDARDIZATION. ISO 26000 – Social Responsibility. Disponível em: https://www.iso.org/iso-26000-social-responsibility.html. Acesso em: 19.06.2024.
[9] LEWKOWICZ, Gregory; SARF, Ritha. Taking Technical Standardization of Fundamental Rights Seriously for Trustworthy Artificial Intelligence. La Revue des Juristes de Sciences Po, nº 25, fev. 2024. p. 42 e ss.
[10] FRAZÃO, Ana. Classificação de riscos: a solução adotada pelo PL 2338/23. JOTA, 04 abr. 2024. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/ia-regulacao-democracia/classificacao-de-riscos-a-solucao-adotada-pelo-pl-2338-23-04042024?non-beta=1. Acesso em: 10.06.2024.