PEC 29 e o conflito entre transparência algorítmica e segredos comercial e industrial

  • Categoria do post:JOTA

Em nosso dia a dia, mergulhamos em um universo repleto de algoritmos, misteriosas engrenagens virtuais que modelam as experiências online e exercem um papel cada vez mais influente na vida cotidiana. Na medida que esses algoritmos se tornam mais presentes, emergem dilemas éticos e práticos que não pode ser negligenciados, entre eles, o conflito entre a transparência algorítmica e a proteção dos segredos comercial e industrial (também denominados, em conjunto, como segredos de negócio, segredos empresariais, ou ainda, trade secrets), além do potencial descompasso de legislações como a PEC da Inteligência Artificial (IA), que, por tratarem de tema comum a ambas, as torna essencialmente interligadas.

De um lado do espectro, o uso disseminado de algoritmos suscita preocupações latentes, sendo a transparência uma das vias para assegurar a responsabilização, prestação de contas (accountability) e mitigar o risco de discriminação algorítmica, como abordado por Mittlestadt e outros estudiosos de Oxford no artigo “The ethics of algorithms: mapping the debate”[1].

De outro, as organizações têm uma justificativa sólida para proteger seus segredos comercial e industrial amparados nos artigos 1º, IV, 5º, X, XII e XXIX e 170 da Constituição da República, garantindo a livre iniciativa, a inviolabilidade da intimidade, do sigilo de dados e das comunicações, a proteção às criações industriais e à livre concorrência, respectivamente.

No âmbito infraconstitucional, a proteção dos segredos de negócios encontra amparo no tratado internacional TRIPs[2] e na Lei de Propriedade Industrial (LPI)[3], por meio da repressão à concorrência desleal, além de leis que tangenciam o tema direta ou indiretamente, como a Consolidação das Leis Trabalhistas (CLT)[4], a Lei de Software[5] e a Lei Geral de Proteção de Dados Pessoais (LGPD)[6].

Com base nas normas aplicáveis, os segredos de negócios têm como requisitos para sua proteção: o sigilo, o valor econômico da informação/conhecimento por ser secreta, bem como a adoção de medidas razoáveis para manutenção do sigilo pelo titular. Em outras palavras, caso se dê publicidade a determinado conhecimento, este deixa de ser protegido, podendo ser utilizado por concorrentes que tiveram acesso legitimo a tal conhecimento.

A abertura desmedida de informações estratégicas, portanto, pode expor as organizações a riscos competitivos – sem falar nos riscos de segurança –, minando sua capacidade de inovar e reduzindo suas vantagens no mercado. Essa limitação substancial[7] ao direito de acesso à funcionalidade do algoritmo é citada no Considerando 63 do GDPR[8], que estabelece que o direito de acesso aos dados pessoais “não deverá prejudicar os direitos ou as liberdades de terceiros, incluindo o segredo comercial ou a propriedade intelectual e, particularmente, o direito de autor que protege o software”, além de estar expressamente previstas em leis nacionais, como as citadas LGPD (Art. 20, § 1º: O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial) e Lei de Software (Art. 14, § 4º: “Na hipótese de serem apresentadas, em juízo, para a defesa dos interesses de qualquer das partes, informações que se caracterizem como confidenciais, deverá o juiz determinar que o processo prossiga em segredo de justiça, vedado o uso de tais informações também à outra parte para outras finalidades”) Não por outra razão, aliás, a Autoridade Nacional de Proteção de Dados (ANPD) tem como uma de suas competências zelar pela observância dos segredos comercial e industrial[9].

Desse modo, encontrar o equilíbrio entre a responsabilidade e a proteção dos ativos comerciais torna-se tarefa desafiadora e importante para acompanhar o futuro da tecnologia e o desenvolvimento dos negócios. Nesse contexto, em junho de 2023, foi apresentada iniciativa de Proposta de Emenda à Constituição (PEC 29/2023) que tem, como objetivo, a incorporação da garantia da transparência algorítmica como direito fundamental na Constituição[10].

Com a difusão de algoritmos nas mais diversas áreas, a exemplo da saúde, transporte, segurança, redes sociais, sistemas de recomendação e tomada de decisões governamentais, torna-se imperativo o emprego dos melhores esforços para que o tratamento seja transparente, mitigando a opacidade que muitas vezes envolve o seu uso e suscita questionamentos plenamente justificáveis. O aumento da tomada de decisões automatizadas na vida cotidiana tem sido acompanhado de um chamado pela prestação de contas em torno do uso dos algoritmos. E o motivo é simples: a utilização de algoritmos pode mesmo resultar em potenciais violações de privacidade, ampliando, por consequência, o risco de decisões discriminatórias.

Para indivíduos pertencentes a grupos já marginalizados na sociedade, algoritmos que incorporam vieses tendenciosos podem causar – e já causaram – impacto negativo na vida dos integrantes de grupos pré-selecionados, ainda que possam contribuir – se usados de forma adequada – com impactos positivos como para o aumento de eficiência em grau exponencial – diga-se de passagem, em patamares jamais imaginados.

A título exemplificativo, já em 2013, o caso de Eric Loomis, julgado em Wisconsin nos Estados Unidos ganhou notoriedade internacional devido ao uso de algoritmos secretos em um software privado intitulado COMPAS (Correctional Offender Management Profiling for Sanctions) para determinar o patamar de sua pena. Na época, Loomis, condenado a seis anos de prisão com base na avaliação de alto risco feita pelo COMPAS recorreu buscando acesso aos critérios do algoritmo. Entretanto, o acesso ao código-fonte do algoritmo foi negado pelo Procurador do Estado, enquanto a empresa Northpointe Inc., desenvolvedora do COMPAS, argumentou que a operação do sistema estaria protegida pelo segredo industrial[11].

Cabe mencionar ainda um recente caso veiculado na mídia em abril de 2023, no qual a Autoridade de Proteção de Dados da Holanda exigiu que o ministro das Relações Exteriores do país prestasse esclarecimentos sobre a acusação de que estaria sendo utilizado um algoritmo secreto para traçar perfis étnicos de solicitantes de visto para o país. Questão delicada que dialoga não só com questões de privacidade, mas também com as políticas anti-imigração e o crescimento do nacionalismo nos países do bloco europeu.

Por outro lado, observado o cenário nacional, ainda que pareça ser uma notável iniciativa prever a transparência algorítmica como direito fundamental na Constituição, a sua mera incorporação ao texto constitucional tal como se propõe apresenta uma visão simplista e reducionista, que se distancia da complexidade subjacente ao tema. Como sabemos, a transparência algorítmica está intrinsecamente relacionada ao tema da inteligência artificial, campo em constante evolução, cujo desenvolvimento de regulamentação específica pode – e deve ser, se tivermos a sorte e oportunidade de verdadeiramente nos debruçar sobre o tema – um processo demorado e desafiador.

A proposta de trazê-la, desde já, como um direito fundamental no ordenamento jurídico brasileiro mostra-se uma iniciativa precipitada e potencialmente perigosa. A ausência atual de diretrizes, procedimentos, limitações relacionadas aos segredos industriais e comerciais e uma definição clara sobre qual autoridade reguladora seria competente para lidar com essas questões são fatores importantes que merecem ser previamente destrinchados.

Abrir essa caixa, na qual os algoritmos repousam, sem a devida estrutura regulatória e orientações claras, pode resultar em implicações indesejadas, como prejudicar a competitividade das empresas e afastar investimentos em tecnologia do país, além de deixar a cargo do judiciário a análise de ponderação das normas constitucionais em cada caso concreto. Nota-se, aliás, que o precedente chileno citado na fundamentação da proposta da PEC está no sentido de proteção contra vieses em algoritmos ou processos automatizados de tomada de decisão, sem, contudo, elevar a direito fundamental a transparência algorítmica, destacando, assim, o fim da norma e não predeterminar o meio para se chegar a tal finalidade.

Uma coisa é certa: não há qualquer dúvida sobre a necessidade de transparência algorítmica, no sentido de prover maior clareza e explicação a legítimos interessados. Entretanto, o ponto que resta ser desvendado é como operacionalizar, na prática, essa transparência algorítmica antes de formalizá-la no ordenamento jurídico, especialmente sem comprometer os segredos comerciais e industriais e, esse ponto, cerne da questão, continua em aberto com a PEC 29/2023.

[1] MITTELSTADT, B. D.; ALLO, P. A.; TADDEO, M. R.; WACHTER, S.; FLORIDI, L (2016). The ethics of algorithms: Mapping the debate. Big Data & Society. Link: https://www.cnil.fr/sites/cnil/files/atoms/files/mittelstaedt_floridi_the_ethics_of_algorithms.pdf. Acesso em: 09.10.2023.

[2] Acordo sobre Aspectos dos Direitos de Propriedade Intelectual Relacionados ao Comércio, entrou em vigor no Brasil por meio do Decreto 1.355/1994. Artigo 39.2

[3] Lei 9.279/96. Artigo 195, XI e XII

[4] Decreto-lei 5.452/43. Art. 223-D e 482, g)

[5] Lei 9.609/98. Art. 14, §4º

[6] Lei 13.709/18. Art. 6, VI; 9, II; 10, §3º; 18, V; 19, II e §3º; 20, §1º e §2º; 38; 48, III; 55-J, II, X e §5º.

[7] MALGIERI, G.; COMANDÉ, G. Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation (2017). Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3088976. Acesso em: 10.10.2023.

[8] Considerando 63 do General Data Protection Regulation (GDPR). Link: https://gdpr-text.com/pt/read/recital-63/. Acesso em: 10.10.2023.

[9] Lei 13.709/18. Art.55-J, II.

[10] Essa emenda propõe a adição do inciso LXXX ao artigo 5º, com o seguinte texto: “art. 5º – LXXX – o desenvolvimento científico e tecnológico assegurará a integridade mental e a transparência algorítmica, nos termos da lei.”

[11] FERRARI, Isabela; BECKER, Daniel; WOLKART, Erik Navarro. Arbitrium ex machina: panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos. Revista dos Tribunais, vol. 995, setembro de 2018.