Regulação de IA deve proteger direitos e incentivar apenas inovação responsável

  • Categoria do post:JOTA

Quando bem utilizada, a inteligência artificial pode trazer muitos ganhos relacionados à maior eficiência, acessibilidade, otimização e até mesmo garantia de direitos fundamentais. Mas, para que isso efetivamente seja alcançado, é fundamental que o seu desenvolvimento e utilização sejam pensados a partir de um olhar ativamente protetivo de direitos.

O atual contexto de apenas autorregulação por regras principiológicas ou códigos privados de boas condutas não é mais suficiente para prevenir e mitigar os riscos e atuais danos causados pela IA. Não falamos de presunção, mas de realidade que precisa ser considerada.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Caso contrário, como a IA está cada vez mais sendo utilizada para tomada de decisão em diferentes instâncias, ela é potencialmente violadora de todos os direitos fundamentais, sejam políticos, sociais, individuais ou coletivos. Para citar alguns exemplos:

  • Direito à imagem e a honra quando sistemas de IA são utilizados para criar deep fakes ou mesmo deep nudes de meninas.
  • Direito à igualdade quando os sistemas de IA discriminam ilegítima ou ilegalmente, seja direta ou indiretamente, com base em marcadores sociais, como raça, gênero, território e condição social, especialmente quando esses critérios são somados.
  • Ainda fruto de discriminações algorítmicas, pode impactar o bom exercício do direito à saúde, à moradia, à  educação, ao trabalho, à liberdade e até mesmo o acesso ao crédito.

Para que seja possível identificar e mitigar eventuais impactos negativos dos sistemas de IA é necessário que, previamente a utilização dos sistemas, eles passem poder testes e avaliações que permitam a identificação dos riscos e consequente mitigação dos efeitos negativos, inclusive com a possibilidade de não utilização quando o risco de impacto negativo em direitos é muito maior que os benefícios. O PL 2338/2023, atualmente analisado em Comissão Especial de IA na Câmara dos Deputados, prevê esse mecanismos.

Inicialmente, há a previsão da figura da avaliação preliminar no art. 12. Idealmente, essa avaliação ocorre para que, antes do emprego ou utilização, o agente de IA possa se avaliar para determinar o grau de risco do seu sistema, baseando-se nos critérios previstos na lei. Caso o sistema seja de alto risco, será obrigatória a realização de uma avaliação de impacto algoritmico (AIA), que é uma ferramenta fundamental na identificação e mitigação de riscos dos sistemas de IA.

Segundo o professor Alessandro Mantelero, que é um dos grandes especialistas na área, as avaliações de impacto algoritmico devem ter, pelo menos, as fases de preparação, cognição do risco, mitigação dos riscos encontrados e monitoramento. No geral, a identificação do risco e sua classificação devem seguir uma matriz de risco que leve em conta a probabilidade do risco se materializar e a sua gravidade.

Atualmente, o projeto de lei citado, na seção IV do Capítulo III prevê a obrigatoriedade da AIA para os sistemas de alto risco. Além disso, é importante que nesses processos de avaliação interna dos sistemas seja possibilitada, sempre que possível, a participação social diversa, o que garante que os verdadeiros riscos que podem vir a se materializar sejam levantados pelos próprios futuros usuários do sistema.

Tendo os riscos identificados e classificados, é possível aplicar as diferentes medidas de mitigação que podem passar por testes de qualidade, readequações de potenciais impactos discriminatórios, testes de acurácia, robustez, medidas de transparência, nomeação de responsáveis e equipes técnicas, etc.

É importante que tais avaliações sejam feitas previamente à introdução do sistema em mercado ou disponibilização em serviço, mas que também sejam constantemente monitoradas e, sempre que necessário, atualizadas.

Assim, quando pensamos em incentivos à inovação que possam tambem garantir a proteção dos direitos fundamentais, é necessário, previamente, esclarecer o mito de que regulação e inovação são conflitantes. Uma regulação que proteja direitos, crie obrigações de governança e incentivos à inovação responsável, como faz o PL 2338, não é oposta ou impeditiva da inovação e do desenvolvimento econômico do Brasil.

Não se deseja qualquer inovação, mas a que seja protetiva de direitos e responsável. E mais, a existência de obrigações faz com que as pessoas tenham mais confiança nesses produtos e serviços, assim como cria segurança jurídica para os próprios agentes de IA.

Utilizemos a história como exemplo: no início dos anos 90, quando se discutia o Código de Defesa do Consumidor, havia o mesmo argumento de que o modelo regulatório do CDC iria impedir o avanço do Brasil. Hoje, 25 anos depois, há, na verdade, um contexto de maior proteção de direitos dos consumidores, que não se deparam mais tantos produtos defeituosos que representam riscos para sua saúde, integridade ou segurança.

Apesar dessa regra protetiva o Brasil não se tornou atrasado, mas o nosso desenvolvimento é pautado no bem-estar e promoção de direitos fundamentais. Uma regulação eficiente, protetiva de direitos, é condição indispensável para o florescimento de produtos e serviços de IA responsáveis, potencializadores do ser humano e do Estado democrático de Direito.

Dito essa primeira premissa, interessante destacar pontos que fazem com que o PL 2338 seja um modelo equilibrado entre proteção de direitos e incentivo à inovação. Lembrando, que não é qualquer tipo de inovação, mas aquela que vai potencializar o Brasil, os brasileiros e seus direitos.

Em primeiro lugar, a abordagem baseada em riscos e em direitos faz com que os agentes de IA sejam impactados por diferentes graus de força regulatória, ou seja, tenham mais ou menos obrigações de acordo com com o grau de risco em que se encontram. Dando exemplos, um chatbot que esclarece dúvidas em um site provavelmente será baixo risco, não tendo grandes obrigações a cumprir, diferentemente de um sistema de IA que vai auxiliar no diagnóstico de doenças. A existência dessas obrigações de governança e de um rol de direitos é parte fundamental da garantia de direitos das pessoas potencialmente impactadas pelos sistemas de IA.

Ademais, o PL 2338 traz algumas flexibilizações que não podem ser desconsideradas. Primeiramente, o projeto cria exceções de escopo de aplicação no art. 1º, determinando situações em que a lei não se aplica. Esse é o caso de sistemas utilizados para fins particulares e não econômicos e os sistemas utilizados para atividades de investigação, pesquisa, testagem e desenvolvimento (§1º, incisos I e III), que não são obrigados a cumprir com ela.

Ainda, o §2º do art. 1º traz também que o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) regulamentará regimes simplificados, envolvendo flexibilização de obrigações regulatórias em alguns casos, como padrões e formatos abertos e livres não considerados de alto risco; projetos de interesse público e para incentivo à inovação e à pesquisa científica e tecnológica no ambiente produtivo, com vistas à capacitação tecnológica, ao alcance da autonomia tecnológica e ao desenvolvimento do sistema produtivo nacional e regional do Brasil.

Além disso, o PL 2338 traz uma série de previsões de flexibilizações das obrigações de governança. Por exemplo, o §1º do art. 18 dispõe que caberá às autoridades setoriais definir as hipóteses em que as obrigações estabelecidas em regulamento serão flexibilizadas ou dispensadas, de acordo com o contexto de atuação do agente de IA na cadeia de valor do sistema de IA. Já o § 4º do art. 25 determina que caberá à autoridade setorial definir as hipóteses em que a AIA será flexibilizada, levando em consideração o contexto de atuação e o papel de cada um dos agentes de IA e as normas gerais da autoridade competente.

Da mesma forma, o Capítulo X fala de medidas de fomento à inovação responsável e a Seção V traz o art. 67 que permite que as autoridades setoriais definam critérios diferenciados para sistemas de IA ofertados por microempresas, empresas de pequeno porte e startups que promovam o desenvolvimento da indústria tecnológica nacional.

Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA

Nesse ponto válido destacar que, apesar de existir as flexbilizações de acordo com o porte da empresa, se uma empresa de pequeno porte quer desenvolver ou utilizar sistemas de IA de risco considerável, estarão sujeitas às medidas de governança previstas, já que a prioridade do ordenamento jurídico brasileiro é a proteção de direitos.

Outro ponto que permite a conciliação entre a proteção de direitos e o estímulo à inovação é a possibilidade de uma lei viva que permita atualização, já que os sistemas de IA evoluem rapidamente. Essa possibilidade está, por exemplo, no rol exemplificativo de sistemas de alto risco do art. 14 e no art. 15 do PL 2338 que traz critérios para que o SIA identifique novos casos de aplicação de alto risco, o que mostra que a lei não é fadada ao decurso do tempo.