Modelos regulatórios da IA no Brasil: contraposições e convergências

  • Categoria do post:JOTA

O debate legislativo sobre a regulação da Inteligência Artificial (IA) está em um novo capítulo neste ano, com a instauração da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) no Senado Federal. Instalada em agosto de 2023, a CTIA tem 120 dias para examinar os projetos concernentes ao relatório final aprovado pela Comissão de Juristas, responsável por subsidiar a elaboração de substitutivo sobre Inteligência Artificial no Brasil (CJSUBIA), bem como eventuais novos projetos que disciplinem a matéria. O Projeto de Lei (PL) 2.338/2023, de autoria do senador Rodrigo Pacheco, consubstancia as principais contribuições da CJSUBIA. No centro dessa discussão, está a questão sobre qual será o modelo regulatório para garantir a supervisão e o enforcement dos princípios e obrigações da futura lei.

A partir das audiências públicas realizadas em outubro deste ano, é possível identificar três correntes principais: autorregulação regulada, regulação setorial e regulação central. Nos próximos parágrafos, discorro sobre as características e os desafios para implementar cada um desses modelos.

Conheça o JOTA PRO Tributos, nossa plataforma de monitoramento tributário para empresas e escritórios, que traz decisões e movimentações do Carf, STJ e STF

A primeira corrente, da autorregulação regulada, é trazida por defensores do projeto de lei original que iniciou a discussão na Câmara em 2020, o PL 21/2020. Como explica o professor Márcio Iorio Aranha, em artigo no JOTA, o conceito deriva da literatura alemã e pressupõe um diálogo entre regulado e regulador, sendo um meio termo entre a autorregulação pura, isto é, sem a existência de um regulador, e a regulação burocrática tradicional de comando e controle. 

Se observarmos o texto do PL, logo identificamos que ele não trouxe elementos suficientes para caracterizar o modelo regulatório como de autorregulação regulada. Isto porque este projeto de lei não indicou ou previu a existência de nenhuma autoridade competente para assumir o papel de acompanhar os regimes de governança desenvolvidos e propostos pelos regulados. 

Indo para a segunda corrente, a da regulação setorial, esta se fundamenta no argumento de que a transversalidade e os múltiplos propósitos para qual um sistema de IA pode ser projetado, trazem uma complexidade que inviabiliza que a regulação do tema esteja nas mãos de uma autoridade central. Neste sentido, Rodrigo Ferreira, encarregado da Casa da Moeda, apontou como seria desafiador para um  único regulador tratar sobre os riscos inerentes a veículos autônomos e escores de crédito “em um mesmo balaio”. Há força nesse argumento, uma vez que é realmente difícil de imaginar que uma autoridade central seja capaz de lidar com tantas particularidades e expertises necessárias para regular o impacto da inteligência artificial nos diferentes setores produtivos. Nada mais razoável portanto que as agências reguladoras já existentes sejam responsáveis pela supervisão em seus respectivos setores. Afinal, elas já possuem anos de experiência e maturidade em cada área que lhe compete.

Entretanto, é importante refletir que existem questões transversais ao impacto da IA que necessitam, de algum modo, ser alinhados para que não caiamos no risco de que cada regulador defina seus próprios conceitos sobre os princípios estabelecidos em uma lei sobre o tema. Ou aponte diretrizes que possam vir a se contradizer. Este cenário não é interessante para o setor produtivo, que muitas vezes é fiscalizado simultaneamente, por múltiplos reguladores, e podem se deparar com decisões ou interpretações contraditórias sobre um mesmo princípio do uso ético da IA, como a transparência ou a não-discriminação. Tal insegurança jurídica seria prejudicial para empresários e inovadores de todos os portes. 

Esta crítica também é trazida no cenário internacional: relatório de outubro da Universidade de Cambridge revelou que vários líderes acadêmicos do Reino Unido têm feito críticas à regulação setorial da IA devido aos desafios em garantir que os reguladores terão incentivos, recursos ou mandato para fazê-lo, especialmente porque suas atribuições são limitadas por competências legais. Assim, estes especialistas apontam para a necessidade de uma abordagem mais holística.

Por fim, há a corrente da autoridade central. Essa proposta se fundamenta na ideia de que, sem uma autoridade que centralize os esforços para desenvolver regras e estabelecer diretrizes, cairíamos no cenário de insegurança jurídica mencionado acima. Durante os debates públicos, foi possível perceber críticas a este modelo, tanto por representantes do setor produtivo quanto por alguns especialistas acadêmicos. A principal diz respeito à inviabilidade de que um regulador único seja capaz de lidar com todas as particularidades inerentes a cada setor em que a IA opera.

Cada alternativa tem seus pontos fortes e fracos. Entretanto, o que talvez não estejamos enxergando, é que é possível incluir elementos que alinhem os pontos fortes de cada corrente. Como Estela Aranha, assessora especial de Direitos Digitais do Ministério da Justiça e Segurança Pública (MJSP), e indicada recentemente para compor o Corpo Consultivo de IA da ONU, expôs durante audiência pública do CTIA, a transversalidade e complexidade da IA trazem a necessidade de pensarmos na construção de um ecossistema regulatório, que seja coeso e eficiente. 

Como já mencionado, o PL 21/2020 falhou em propor um modelo de autorregulação regulada. Em contrapartida, o PL 2.338/2023 apresenta elementos para implementar mecanismos desse modelo, ao propor, no art. 30, que os agentes de IA poderão formular códigos de boas práticas e de governança que estabeleçam condições de organização, procedimentos, padrões técnicos e outras obrigações específicas, que visem supervisionar e mitigar riscos associados a esses sistemas. Isto, junto à previsão de uma autoridade competente que acompanhe a implementação dessa governança, traz os moldes de um modelo de autorregulação regulada.

Quanto à regulação setorial, o PL 2.338/2023 não pretendeu ignorar a complexidade do tema, nem desrespeitar as competências dos reguladores já existentes. O art. 34 deixa explícita a necessidade de que a autoridade competente e os reguladores setoriais coordenem suas atividades, nas correspondentes esferas de atuação, de modo a assegurar o cumprimento da legislação. Inclusive, em seu §1º, prevê a instituição de um fórum de comunicação que permita esta articulação entre os diversos reguladores.

Conquanto muitos apontem que o modelo regulatório proposto pelo PL 2.338/2023 é exclusivamente centralizador, esta não é exatamente a realidade. Com certeza há pontos de melhoria e que podem ser mais bem trabalhados. E é para isso que existe o debate legislativo. O que não podemos fazer é cair na falácia de que as correntes regulatórias discutidas são excludentes entre si. Inclusive, já temos no ordenamento jurídico brasileiro uma legislação que comprova isso: a Lei 13.709/2018, LGPD. 

A LGPD possui diversos dos mecanismos regulatórios propostos no PL 2.338/2023: (i) a lei traz instrumentos de governança para uma autorregulação regulada, como os estabelecidos no art. 50; (ii) ela reconhece a importância de articulação com os reguladores setoriais, e propõe a criação de um fórum no art. 55-J, §4º; e (iii) reconhece a importância de existir uma autoridade central que coordene todos esses esforços para garantir segurança jurídica e efetividade da lei, uma vez que a proteção de dados, assim como a inteligência artificial, são objetos regulatórios de natureza transversal. 

Assim, uma autoridade responsável por estabelecer diretrizes gerais para a regulação de IA não significa que ela será a única autoridade a regular o tema. Os demais reguladores continuarão tendo sua relevância e competências respeitadas. Contudo, a existência da autoridade de IA é importante para que ela funcione como um hub regulatório, que garanta coesão e coerência jurídica para atuar sobre os diversos impactos que a inteligência artificial traz à sociedade brasileira.