No final do ano passado, o Supremo Tribunal Federal (STF) divulgou a notícia de que recebeu propostas de várias instituições externas para uso de inteligência artificial no Poder Judiciário com o fim de agilizar os seus serviços[1]. Ainda segundo a assessoria de comunicação do tribunal, 24 interessados – entre empresas, universidades e startups – teriam apresentado propostas para permitir “o resumo de processos judiciais, preservando suas informações principais”.
A notícia não é propriamente uma surpresa, já que a utilização de inteligência artificial pelo Poder Público, incluindo o Judiciário, é uma realidade que vem se alastrando com grande velocidade, mesmo sem a devida consideração dos seus diversos riscos e desafios.
Muitos desses riscos e problemas já apontei em artigos anteriores[2], razão pela qual, nesta oportunidade, pretendo me concentrar em apenas um ponto que, ao meu ver, não tem recebido a devida atenção: quais são os limites da terceirização de competências públicas para sistemas de inteligência artificial e como assegurar que esse processo ocorra de forma segura e sem criar distorções, como favorecimentos indevidos?
Tais perguntas são importantes mesmo quando os sistemas de inteligência artificial não exerçam propriamente o papel do “juiz-robô”, ou seja, elaborem diretamente decisões judiciais, sujeitas ou não ao controle humano. Com efeito, a classificação e o resumo de processos envolvem considerável grau de poder decisório, de forma que não podem ser tidas como meras atividades-meio ou de gestão processual.
Aliás, diante do número avassalador de processos que hoje se encontram no Poder Judiciário, a classificação ou o resumo de um processo podem ser os atos mais importantes da sua tramitação, sendo determinantes para o seu resultado final.
É precisamente por essa razão que sistemas de inteligência artificial com tais funções não podem ser equiparados a meras máquinas, instrumentos, ferramentas ou softwares de gestão. Sempre que utilizados para funções que envolvem juízos subjetivos e valorativos – tais como avaliações jurídicas sobre a síntese do assunto ou a definição do objeto ou tese do processo – sistemas de inteligência artificial estão exercendo parte importante da atividade-fim do Poder Judiciário, tornando-se verdadeiros assessores dos juízes de carne e osso.
Aliás, este é mais um exemplo de como a inteligência artificial vem possibilitando uma verdadeira terceirização de importantes atividades e funções de entes privados e públicos para as máquinas, com uma série de implicações e dificuldades.
Veja-se que, no âmbito empresarial, sistemas de inteligência artificial podem hoje assumir as atividades decisórias principais de uma empresa, tais como as relativas a recrutamento de pessoal e administração de recursos humanos, decisões de investimento e até mesmo precificação de produtos e serviços.
Com isso, criam-se novas formas de alocação de riscos e responsabilidades entre agentes privados, criando laços não triviais entre os ofertantes da tecnologia e aqueles que as aplicam. Tais laços, sob vários aspectos, podem representar muito mais do que uma terceirização: uma verdadeira parceria.
Se a delegação de importantes atividades para sistemas de inteligência artificial já é complicada no ambiente privado, torna-se ainda mais desafiadora no ambiente público, que lida com competências que, por seu caráter público, são normalmente indelegáveis.
Apenas a título de exemplo, parece óbvio que o STF não poderia contratar funcionários de carne e osso de uma empresa privada para classificar e resumir seus processos ou fazer minuta de suas decisões. Tais atividades presumem-se competências indelegáveis dos servidores públicos do Judiciário, os quais estão sujeitos a um rígido regime administrativo que, por meio de uma série de deveres e responsabilidades, assegura o compromisso deles com o interesse público.
Entretanto, o que nos faz aceitar, aparentemente sem tanto estranhamento, que as mesmas atividades possam ser terceirizadas para máquinas, ainda mais quando estas são programadas por agentes privados? Isso não seria uma verdadeira e complexa parceria público-privada, ainda mais quando as relações entre o ofertante da tecnologia e o Poder Judiciário são contínuas, para efeitos de supervisão, monitoramento e atualização dos sistemas?
Ainda que superada essa preocupação e se admita que tais parcerias público-privadas possam ser implementadas, fato é que uma série de garantias precisariam ser asseguradas para evitar disfuncionalidades, tais como utilizações de informações privilegiadas e conflitos de interesse.
Afinal, várias das empresas ofertantes de sistemas de inteligência artificial são também partes de processos judiciais, sendo julgadas pelo mesmo Poder Judiciário que utilizará os sistemas por ela programados. Quais serão, pois, as garantias de que as ofertantes de tecnologia não se aproveitarão de tais oportunidades para obter vantagens indevidas nos processos judiciais nos quais são partes?
Várias das empresas ofertantes de sistemas de inteligência artificial têm uma gama considerável de clientes, dentre os quais partes de processos judiciais e escritórios de advocacia. Nesse sentido, a empresa que programa um sistema para o STF poderá também oferecer serviços de tecnologia para aqueles que se submeterão a tais sistemas no Judiciário? Quais serão os cuidados para se evitar conflitos de interesses, trocas de informações privilegiadas e favorecimentos indevidos?
Dificuldade adicional é que as empresas hoje estão muito interligadas, de forma que há se entender suas redes e conexões, a fim de assegurar que a vedação do conflito de interesses possa se estender a todas as empresas do grupo ou a todas aquelas em que a ofertante da tecnologia tem participação societária ou laços relevantes.
Veja-se que o problema do conflito de interesses não se resolve nem mesmo se a ofertante de tecnologia for uma instituição acadêmica, ainda que pública. Ainda que em menor proporção, os conflitos de interesse são frequentes no mundo acadêmico, o que faz com que, mesmo nessa hipótese, seja necessária uma série de cuidados adicionais.
Acresce que tais contratos entre as ofertantes de tecnologia e o Poder Judiciário precisariam estar sujeitos a elevado grau de transparência e accountability. Mesmo que a ofertante apresente regras rígidas de compliance, elas pouco adiantam se não houver controle por parte do Judiciário e também por parte da própria sociedade civil.
Afinal, a rigor, o problema do conflito de interesses pode ser tão grave que se deveria cogitar até mesmo da separação de negócios, de forma que o ente que oferta um sistema de inteligência artificial para o Poder Judiciário não poderia ofertar sistemas ou auxílios para que os demais agentes de mercado atuem em suas lides judiciais.
Outro ponto que precisa estar bem equacionado em tais contratos é a questão do segredo de empresa, que certamente não poderia ser oponível ao Poder Judiciário, uma vez que ele não pode contratar um sistema que não conhece a fundo, ainda mais para exercer as importantes funções a que se destina.
Mesmo em relação a jurisdicionados e advogados, o segredo de empresa precisa ser colocado em perspectiva, uma vez que a utilização de inteligência artificial em casos assim precisa atender a critérios de transparência e explicabilidade para todos aqueles afetados por ela[3].
Ainda há o problema da segurança da informação e da proteção de dados pessoais, até porque as ofertantes da tecnologia terão acesso a processos confidenciais. Acresce que mesmo dados públicos também estão sujeitos, em alguma medida, à proteção da LGPD.
Todos esses pontos mostram que a utilização de inteligência artificial pelo Poder Judiciário não pode ocorrer de maneira açodada, sob pena de diversas violações de direitos e também do risco de exploração indevida de informações privilegiadas, com a consequente corrupção do sistema.
É preciso pensar igualmente no princípio da paridade das armas, pois serão normalmente as partes mais ricas e os escritórios de advocacia mais poderosos aqueles que terão as melhores condições de ter sistemas de inteligência artificial que entendam os sistemas dos tribunais, inclusive para o fim de utilizá-los a seu favor ou mesmo “driblá-los”.
Consequentemente, há riscos de que as disputas judiciais passem a se travar não em torno do melhor direito – ou da melhor tese jurídica – mas sim em torno da melhor tecnologia, o que, além de favorecer os mais ricos, ainda abre margem para inúmeras estratégias de litigância predatória[4].
Entretanto, sem a criação de salvaguardas para a vedação de conflitos de interesse e utilização de informações privilegiadas, mais do que os riscos de comprometimento da paridade de armas – o que já seria preocupante – passa a haver o risco da corrupção do próprio Judiciário.
Afinal, em um contexto no qual quem tem mais dinheiro pode contratar sistemas que entendem e “driblam” os sistemas dos tribunais ou pode até contratar a empresa que programou o próprio sistema do tribunal, é difícil sustentar que a utilização da tecnologia será compatível com a realização da justiça.
[1] https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=522767&ori=1
[2] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/decisoes-algoritmicas-x-decisoes-humanas-06042022 Ver também a série discriminação algorítmica: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/discriminacao-algoritmica-16062021
[3] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/qual-deve-ser-a-extensao-do-segredo-empresarial-no-capitalismo-de-dados-05062024
[4] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/litigancia-predatoria-01032023