O Conselho da Justiça Federal (CJF) aprovou, em 2021, o estímulo ao uso de ferramentas de inteligência artificial (IA) para subsidiar as partes e o árbitro durante processos de arbitragens em tribunais federais de primeira e segunda instância. O CJF, no entanto, alertou para a necessidade de que se “observe as garantias constitucionais do devido processo legal, notadamente o direito de participação e ao contraditório”.
O enunciado 106 do CJF foi aprovado durante a 2ª Jornada para Prevenção e Solução Extrajudicial de Litígios, cujo objetivo foi ampliar o emprego da arbitragem na resolução de conflitos.
A arbitragem é um mecanismo extrajudicial de solução de conflitos empresariais. Por ser menos burocrático, o processo arbitral é mais ágil do que no Poder Judiciário. Na arbitragem, as partes em disputa concordam em submeter a controvérsia a um árbitro ou tribunal privado, que ao final do processo vai decidir quem tem razão.
Grosso modo, a inteligência artificial opera a partir de algoritmos que acumulam conhecimento com base em dados previamente fornecidos. A expectativa é que com o processamento dessas informações a IA seja capaz de encontrar soluções para os problemas apresentados.
A utilização da inteligência artificial na arbitragem já é uma realidade, principalmente nos escritórios de médio e grande porte.
“Há dois usos principais de IA nos escritórios. O primeiro é no discovery, momento em que as partes recebem os documentos da outra parte. Normalmente são grandes volumes de documentos, e a inteligência artificial otimiza a extração de informações relevantes. O segundo uso mais comum é para traduzir e resumir documentos”, explica Sávio Andrade, do Machado Meyer Advogados.
Esta tecnologia pode ser usada de diversas outras maneiras na otimização do trabalho em procedimentos arbitrais.
“Algumas dessas aplicações incluem a transcrição de audiências, correção gramatical, seleção de árbitros e análise de conflitos, pesquisa de jurisprudência, geração de minutas, análises preditivas e revisão de termos de contrato. Contudo, não existe uma uniformização na aplicação dessas ferramentas e, dada a relativa novidade da disponibilização em massa de soluções de IA, geralmente não há diretriz específica sobre seu uso nos procedimentos de câmaras arbitrais”, afirma Bernardo Fico, sócio do Maranhão & Menezes Advogados.
Mas especialistas alertam que o uso da IA deve ser feito cercado de cuidados para evitar a ocorrência de conclusões equivocadas ou de vieses discriminatórios.
“Esse uso não pode ser feito de forma descuidada, porque a ferramenta pode inventar coisas. O usuário deve aproveitar a capacidade de organização e resumo das informações que a IA traz, mas precisa sempre checar a veracidade daquilo que é fornecido”, ressalta Eduardo Perazza, do Machado Meyer Advogados.
Em maio deste ano, nos Estados Unidos, viralizou o caso de um advogado que entrou com um processo na Justiça com precedentes jurisprudenciais inventados pelo ChatGPT. O profissional foi repreendido pelo juiz do caso, que disse que foi apresentada “uma circunstância sem precedentes”, com um documento repleto de “citações e decisões judiciais falsas”.
No Brasil, em abril, um advogado foi multado em R$ 2.604 por litigância de má-fe, por ter ajuizado no Tribunal Superior Eleitoral (TSE) uma petição redigida pelo ChatGPT. Em sua decisão, o ministro Benedito Gonçalves destacou que “o peticionante é advogado, razão pela qual presume-se seu pleno conhecimento da inadequação do material apresentado como suporte para intervir no feito”.
“Para a minha pesquisa de mestrado, coloquei um conceito jurídico no ChatGPT e pedi a ele artigos sobre o tema. A ferramenta me trouxe três artigos. Fui checar e descobri que nenhum dos artigos existia. Os autores existiam. Em algum momento eles falaram lateralmente sobre o assunto, mas nunca escreveram os artigos que a IA me deu como se tivessem sido escritos por eles”, revela Sávio Andrade, do Machado Meyer Advogados.
Bernardo Fico, do Maranhão & Menezes Advogados, destaca que um dos principais desafios enfrentados ao incorporar a IA em arbitragens é justamente a falta de transparência em seu funcionamento. Isso porque não é possível saber quais fontes de informações ou parâmetros foram adotados pela ferramenta para apresentar suas conclusões e respostas.
“Em muitos casos, o processo de aprendizado da máquina é opaco. Chamamos isto de black box (caixa preta), porque a lógica subjacente não é acessível nem compreensível pelos seres humanos. Portanto, a aplicação da IA deve estritamente obedecer aos princípios éticos e jurídicos, cumprindo critérios técnicos de confiabilidade, rastreabilidade e responsabilidade como forma de mitigar esses riscos”, diz o especialista.
Para mitigar vieses da inteligência artificial que podem impactar os processos arbitrais com informações discriminatórias, os especialistas apontam duas medidas. A primeira é adotar critérios de equidade na construção desses sistemas, com a coleta de dados diversificados, representativos e equilibrados no processo de treinamento da máquina.
A segunda sugestão é a necessidade de que as equipes desenvolvedoras das IAs também sejam diversas em termos de sexo, raça, orientação sexual e até mesmo de formação acadêmica, que inclua técnicos e profissionais das ciências humanas.
Carolina Smirnovas, da Manesco Advogados, salienta a importância de as câmaras arbitrais regulamentarem o uso da inteligência artificial em seus processos.
“É preciso ficar claro em quais situações a IA pode ser utilizada, se as partes devem informar quando se utilizam da ferramenta e seus motivos. Essa regulamentação também deve ser pactuada pelas partes no Termo de Arbitragem, a fim de evitar possíveis nulidades – algo que a comunidade arbitral definitivamente não quer”, afirma a advogada.