Entre ordem e liberdade: Trade-offs na regulação da inteligência artificial

  • Categoria do post:JOTA

No debate acerca da regulação da inteligência artificial (IA) no Brasil, predominam, hoje, duas correntes. De um lado, os que buscam assegurar a liberdade econômica, sem maior preocupação em mitigar riscos ou em assegurar direitos.

De outro, os que buscam mitigar riscos e assegurar direitos, sem maior preocupação com a viabilidade técnica ou com o impacto econômico das medidas prescritivas que buscam impor.

Tenha acesso ao JOTA PRO Poder, uma plataforma de monitoramento político com informações de bastidores que oferece mais transparência e previsibilidade para empresas. Conheça!

Parece fundamental reorientar o debate a uma zona de equilíbrio. Como ponderou Justice Jackson, em belíssimo voto dissidente no caso Terminiello vs Chicago (1949), “a escolha não é entre ordem ou liberdade; é entre liberdade com ordem ou anarquia sem ambas”.

Nesse contexto, o objetivo deste artigo é indicar alguns pontos da regulação de IA que, pelo estado da arte, impõem trade-offs relevantes entre direitos e desenvolvimento econômico, de modo a contribuir com a formulação de um modelo mais equilibrado entre ambos.

I. O dilema entre explicabilidade e efetividade dos sistemas de IA

Apesar dos contínuos avanços no campo de IA explicável (XAI), estudos recentes demonstram que as técnicas disponíveis são incapazes de solucionar todas as demandas teóricas de explicabilidade, e que os modelos com maior explicabilidade não são os de melhor desempenho.

Com efeito, estudo do European Parliamentary Research Service conclui que, em muitos domínios, sistemas menos explicáveis fornecem desempenho superior. O estudo propõe equilíbrio entre as vantagens comparativas, de modo a evitar que a obrigação de explicabilidade imponha o uso de sistemas inefetivos.

O PL 2338/23, equivocadamente, impõe aos agentes que operam sistemas de alto risco, de forma irrestrita e uniforme, a obrigação de “adoção de medidas técnicas para viabilizar a explicabilidade” (art. 20, V). A medida, apesar das boas intenções, não é tecnicamente alcançável.

É fundamental que o requisito de explicabilidade e seus contornos, em um modelo equilibrado, sejam definidos não por uma medida prescritiva homogênea e alheia à realidade, mas por análises setoriais que considerem o campo da atuação, os riscos específicos, e os limites do estado da arte.

II. O dilema entre proteção de dados e efetividade dos sistemas de IA

A construção de modelos fundacionais e a efetividade de diversas aplicações de IA exigem acesso a um volume massivo de dados pessoais, muitas vezes agregados por terceiros em outras jurisdições e com baixa transparência acerca dos processos de coleta. Há, portanto, trade-offs entre a proteção de dados pessoais e a quantidade e qualidade de dados para treinamentos de IA.

Conforme reconhecido no estudo do European Parliamentary Research Service, princípios de proteção de dados, como a minimização e a limitação de finalidade, são desafiadores e podem impedir aplicações úteis e o desenvolvimento tecnológico em certas áreas.

Em outro artigo, financiado pelo programa Horizon 2020 da União Europeia, os pesquisadores reconhecem as dificuldades práticas de se lidar com direitos de titulares de dados em bases de treinamento de larga escala. Uma das conclusões explícitas é que, sob o regime europeu vigente, há obstáculos para atender aos critérios de quantidade e qualidade de dados necessários para o desenvolvimento de sistemas de IA confiáveis.

A dificuldade de acesso regular a quantidades massivas de dados pessoais, inclusive dados sensíveis, afeta diretamente objetivos relevantes não apenas econômicos. A redução de discriminação algorítmica pressupõe solucionar o problema da sub-representação de grupos demográficos nos conjuntos de dados.

Uma iniciativa da Microsoft reduziu em 20 vezes os erros de reconhecimento facial de pessoas com tons de pele mais escuros, e em nove vezes os erros de reconhecimento facial de mulheres em geral. A técnica empregada abrangeu o acesso massivo a dados sensíveis para a representação de indivíduos com diferentes tons de pele, considerados cada gênero e faixa etária, além de fatores como estilos de penteado, uso de adornos e óculos.

Conforme indicam debates na União Europeia, o desenvolvimento de sistemas de IA robustos e confiáveis, que contemplem a diversidade da população, traz novos desafios ao campo da proteção de dados pelos efeitos das limitações regulatórias ao tratamento massivo de dados pessoais, em especial os dados sensíveis.

No atual ambiente regulatório brasileiro, não cabe o uso do legítimo interesse para dados sensíveis, o uso de consentimento é inviável na prática, a hipótese de tratamento por órgãos de pesquisa é limitada pelo conceito do art. 5º, XVIII, da LGPD, e certos direitos de titulares de dados são de difícil garantia quando necessário o uso de grandes bases de terceiros. Uma via de equilíbrio precisa ser construída, talvez por hipóteses de tratamento específicas na LGPD.

III. O dilema entre propriedade intelectual e IA generativa

Um dos aspectos mais controversos no contexto de IA generativa diz respeito aos limites da propriedade intelectual. Há ao menos quatro temas árduos: o uso de material protegido no treinamento de modelos de IA; a atribuição de propriedade intelectual a obras produzidas por IA generativa; a cadeia de responsabilidade por obras geradas por IA que infrinjam propriedade intelectual; e o tratamento de conteúdo generativo que deliberadamente emule a identidade ou o estilo de indivíduos específicos.

Nos EUA, diversas ações já tramitam no Judiciário invocando violações de propriedade intelectual por organizações como a OpenAI. O tema é tão relevante que ganhou um item próprio no acordo que encerrou a greve de roteiristas em Hollywood, e o US Copyright Office lançou ampla consulta pública, com 34 quesitos, para reavaliar o marco regulatório nos EUA.

No Brasil, dentre as propostas de regulação de IA, a matéria foi tratada de forma superficial e insuficiente no art. 5º, VIII, do PL 21/20, e no art. 42 do PL 2338/23. Parece fundamental um debate mais amplo que viabilize segurança jurídica para a construção de modelos de IA generativa e, ao mesmo tempo, resguarde a propriedade intelectual das partes envolvidas de ponta a ponta.

IV. A calibração final entre regulação e inovação

Embora ativistas afirmem que uma regulação prescritiva centralizada não impactará negativamente a inovação, e representantes do setor econômico afirmem que medidas prescritivas inviabilizarão a inovação em IA no Brasil, vale, em ambos os casos, a máxima de House M.D: “the more devoted, the more reason to lie” (quanto mais devoto, mais motivos para mentir).

Embora a pressão por grupos de interesses seja legítima em uma democracia, a regulação de IA no Brasil deve decorrer de um processo mais amplo de definição da melhor estratégia para o País. Além disso, pela velocidade do desenvolvimento tecnológico, medidas adequadas hoje podem se mostrar inadequadas em poucos meses. Daí a importância de que medidas prescritivas decorram de regulação setorial, ainda que, a exemplo da Executive Order em IA assinada nos EUA, haja uma coordenação governamental das atividades setoriais sem a elas se substituir.

Nesse contexto, é muito bem-vinda a proposta da Professora Dora Kaufman de constituição de um Conselho ou Fórum composto de representantes das agência reguladoras setoriais e de pesquisadores das universidades (tecnólogos e cientistas sociais), com a missão de debater e propor contribuições contemplando os desafios de cada domínio.

O Brasil precisa de um modelo regulatório para IA compatível com a realidade objetiva, alinhado a uma estratégia nacional, adequado às especificidades setoriais, dinâmico para responder aos avanços tecnológicos, e que assegure liberdade equilibrada mediante regulação equilibrada. Isso não virá do atual teor do PL 21/20 ou do PL 2338/2023. Os dilemas trazidos neste artigo, dentre tantos outros, não são de simples superação. Há ainda um longo caminho pela frente na busca pelo equilíbrio entre ordem e liberdade. Sigamos com foco; mas sem pressa.