Inteligência artificial e responsabilidade civil

  • Categoria do post:JOTA

No apagar das luzes do ano de 2023, uma notícia despertou alvoroço: um robô feriu um engenheiro da Tesla, prendendo-o contra uma superfície, arranhando suas costas e braços, além de deixar “um ‘rastro de sangue’ no chão da fábrica”[1]. Apesar de o acidente ter acontecido em 2021, os detalhes só vieram à tona no último mês e acabaram reacendendo as controvérsias em torno da tormentosa indagação: qual o regime de Responsabilidade Civil aplicável aos danos causados por Inteligência Artificial? E mais: o Direito brasileiro oferece resposta satisfatória? Ou ainda é preciso legislar nesta seara?

Embora a Responsabilidade Civil não seja o aspecto mais relevante da regulação da Inteligência Artificial, trata-se de uma das questões mais debatidas e sensíveis. A evidenciar isto, veja-se que no curso das audiências públicas ocorridas na Comissão de Juristas do Senado Federal no ano de 2022, apesar de terem sido reservadas mesas próprias para a discussão da interseção entre Responsabilidade Civil e IA, o tema perpassou praticamente todas as demais falas.

A razão para isso é bastante singular: não há legislação expressa sobre o tema no Brasil e, diante dessa lacuna, surge a busca por maior segurança jurídica, haja vista a especificidade e a complexidade da matéria. Há que se questionar, todavia: eventual inovação legislativa trará dita pacificação? A experiência com outros temas relacionados ao Direito Digital pode fornecer subsídios úteis para a reflexão.

A título comparativo, veja-se as discussões envolvendo a responsabilidade civil dos provedores de aplicações e dos agentes de tratamentos de dados pessoais, que ganharam disciplina própria, respectivamente, por meio do Marco Civil da Internet e da Lei Geral de Proteção de Dados Pessoais.

O Marco Civil da Internet, em vigor desde 2014, não foi capaz de pôr fim à polêmica em torno da responsabilidade dos provedores, que era objeto de intensa controvérsia na jurisprudência, especialmente do Superior Tribunal de Justiça. Apesar de ter conferido certa estabilidade por algum tempo, não tardou para que a própria constitucionalidade do artigo 19 da lei fosse questionada no Supremo Tribunal Federal, que hoje parece aguardar o desenrolar da tramitação do PL 2630/2020 (o chamado PL das Fake News) para se manifestar, prestigiando o Congresso Nacional em cautelosa deferência, diante das complexas questões relacionadas.

No entanto, para além de eventual afronta ao texto da Constituição, a regulação desenhada pelo Marco Civil tem sido revista pela própria jurisprudência do STJ, que, a título de exemplo, excepcionou a aplicação do sistema do judicial notice and takedown diante de casos que envolvessem crianças e adolescentes, contrariando frontalmente o disposto na lei.[2]

Além disso, é preciso ressaltar que apesar de o regime proposto pelo Marco Civil ser reconhecidamente plástico, novas situações passaram a demandar atualizações, especialmente diante das controvérsias envolvendo a moderação algorítmica de conteúdos de ódio, que acabaram sendo colocadas no centro das discussões sobre os ataques antidemocráticos de 8 de janeiro de 2023. Daí se pode extrair uma primeira grande lição: em matéria de tecnologia, a eventual rigidez de legislações criadas para problemas específicos pode conduzir a uma obsolescência rápida e indesejada, que acabará resultando em efeito contrário àquele imaginado: voltará a criar insegurança jurídica, mas agora com um requinte de complexidade, pois as normas mais recentes são muito menos maleáveis do que as normas gerais dos regimes de responsabilidade civil que regulavam a matéria até a edição da disciplina própria.

Outra peculiaridade envolvendo a experiência com o Marco Civil também se tornou especialmente evidente quando da tramitação da Lei Geral de Proteção de Dados (LGPD), a qual foi aprovada em 2020: o papel dos lobbies, especialmente do setor de tecnologia, na definição dos regimes de responsabilidade. Ignorar este fato seria adular a ingenuidade. Basta notar que não há clareza em relação a qual teria sido o regime adotado pela LGPD nos seus artigos 42 a 45, que mais confundem do que explicam.

Com exceção do artigo 45, que remete à legislação consumerista, os demais artigos têm gerado intensa contenda doutrinária e jurisprudencial, não faltando criatividade para a definição das teorias mais mirabolantes acerca do regime legal de responsabilidade civil: subjetivo, objetivo, misto? Como se conta, a versão final do texto nesta matéria foi fruto de consenso circunstancial e compromissório: retirou-se do Projeto de Lei as palavras que expressamente tornavam o regime de responsabilidade civil objetivo e deixou-se para a doutrina e a jurisprudência a interpretação final. Trocando em miúdos: diante da dificuldade em se encontrar uma composição e da intensa pressão dos lobbies (ferrenhamente contrários às propostas de objetivação da responsabilidade), criou-se ainda mais insegurança.

Diante disso, questiona-se: como evitar que o mesmo se repita agora com as discussões envolvendo Responsabilidade Civil e Inteligência Artificial? É preciso contextualizar à luz das propostas regulatórias apresentadas no Congresso Nacional ao longo dos últimos anos.

O PL 21/2020, aprovado pela Câmara dos Deputados em injustificado regime de urgência, trouxe o criticado artigo 6º, inciso VI, que dispunha que: “responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado”.

Diante das inúmeras, duras e merecidas críticas a este dispositivo em específico e ao projeto em si, sobretudo em razão de sua tramitação pouco participativa, o Senado decidiu criar, em 2022, uma Comissão de Juristas, da qual tive a honra de fazer parte, responsável por elaborar uma minuta de texto substitutivo da Casa, que resultou no PL 2338/2023. Ao contrário do projeto anterior, o trabalho da comissão foi fruto de debates mais maduros, diante da participação social que foi oportunizada por meio de audiências públicas, seminário internacional e contribuições escritas, que contaram com a presença de representantes dos mais diversos setores.

As críticas ao PL 21/2020 giravam em torno, por exemplo, da adoção abstrata de um regime de responsabilidade civil subjetiva, ignorando os diferentes contornos trazidos pelos diferentes tipos de Inteligência Artificial, os quais ensejam não apenas riscos diferentes, como variados graus de autonomia e o envolvimento de múltiplos agentes causadores de danos.

Além disso, criticava-se veementemente que um regime baseado na culpa pudesse repassar para as vítimas dos eventos danosos um ônus da prova verdadeiramente diabólico, haja vista a dificuldade em se explicar modelos algorítmicos complexos, naquilo que, à época, se convencionava designar de “caixas-pretas” (black boxes), mas que hoje se prefere nomear como “caixas-opacas” (opaque boxes), dado o preconceito ínsito ao termo anterior. Finalmente, para além de outras inconsistências,[3] o §3º do referido artigo 6º ainda parecia limitar a responsabilização em casos de danos envolvendo relações de consumo, por meio de virtual atenuação na solidariedade na cadeia de consumo.

Em reação a estas atecnias, que beiravam a inconstitucionalidade ao limitarem a reparação integral das vítimas, o PL 2338, fruto do trabalho minucioso da Comissão de Juristas do Senado, acabou optando por um regime, inspirado na Resolução do Parlamento Europeu de 20 de outubro de 2020, que traz um duplo recorte: objetivo e subjetivo. Assim, objetivamente, confere-se resposta distinta a depender do grau de risco da IA e, subjetivamente, o regime legal aplica-se apenas aos fornecedores e operadores de IA, descritos pela lei como “agentes de IA”.

Com efeito, para danos causados por agentes de IA que operem sistemas de alto risco ou risco excessivo, o regime de responsabilidade civil será de natureza objetiva. Para os demais níveis de risco, o regime terá natureza subjetiva com presunção de culpa e inversão do ônus da prova em favor da vítima do dano. Os agentes de IA, segundo o artigo 28, somente não serão responsabilizados quando: “I – comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de IA; II – comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo”.

Nada obstante, segundo previsão expressa do artigo 29, “as hipóteses de responsabilização civil decorrentes de danos causados por sistemas de IA no âmbito das relações de consumo permanecem sujeitas às regras previstas no Código de Defesa do Consumidor, sem prejuízo da aplicação das demais normas desta Lei”. Ademais, os usuários de IA que não se enquadrem nos conceitos de fornecedor e operador continuarão regidos pela legislação pertinente, a exemplo do que ocorrerá com o Estado, que tem seu regime de responsabilizado fixado pelo parágrafo 6º do artigo 37 da Constituição da República. É o que ocorre, por exemplo, com danos causados por erros oriundos do emprego de tecnologias de reconhecimento facial pelas autoridades policiais.

Mais recentemente, em 27 de novembro de 2023, foi apresentado um Substitutivo ao PL 2338, que busca regular a Inteligência Artificial no Brasil. De autoria do senador Astronauta Marcos Pontes (PL-SP), atual ocupante da vice-presidência da Comissão Temporária Interna sobre Inteligência Artificial no Brasil, o texto padece de gravíssimas e insanáveis inconsistências em torno do tema da Responsabilidade Civil, como tivemos a oportunidade de comentar em artigo específico e detalhado.[4] Aguarda-se, ainda, o relatório final do senador Eduardo Gomes (PL-TO), que deverá apresentar novo texto substitutivo à Comissão Temporária, que é composta por 13 senadores.

Finalmente, é digna de nota a proposta apresentada pela Subcomissão de Responsabilidade Civil e Enriquecimento Sem Causa, integrante da Comissão de Juristas responsável pela revisão e atualização do Código Civil (CJCODCIVIL), criada pelo Ato do Presidente do Senado (ATS) nº 11, de 2023. Segundo disposto no inciso VII do Art. 932: “Responderão independentemente da existência de culpa: VII – os sujeitos que utilizem ou se beneficiem direta ou indiretamente, de sistemas de inteligência artificial de alto risco, conforme determinado por legislação específica, sem prejuízo da responsabilidade do fornecedor ou fabricante por serviços ou produtos defeituosos”.

Em termos de Direito Comparado, a União Europeia decidiu não incluir o tema da Responsabilidade Civil na versão final do AI Act, deixando a disciplina a cargo de uma diretiva específica, que integrará um complexo quebra-cabeças regulatório, que ainda envolve a atualização à Diretiva sobre Responsabilidade por Produtos Defeituosos.

Nada obstante, vale comentar que contundentes críticas têm sido feitas à mais recente versão do texto, apresentado em 28 de setembro de 2022 sob a nomenclatura de “Proposta de Diretiva do Parlamento Europeu e do Conselho Europeu que busca adaptar as regras de Responsabilidade Civil extracontratual a casos de danos envolvendo Inteligência Artificial”.[5] Dentre elas, coloca-se o fato de que, contrariando as opiniões dos especialistas consultados e mudando radicalmente em relação ao modelo proposto em 2020, o novo texto acaba consagrando um regime de responsabilidade civil baseado na culpa, o qual é acompanhado por um ferramental de presunções que tentam atenuar as dificuldades probatórias impostas às vítimas de danos sofridos por sistemas de IA.

Diante do exposto, é possível vislumbrar que o tema está longe de uma pacificação, mas algumas lições podem ser aprendidas desde logo. Em primeiro lugar, há que se tomar especial cuidado com a importação das soluções que vêm sendo ventiladas no âmbito da União Europeia. Não se pode perder de vista que o regime lá pensado busca endereçar a necessidade de harmonização de legislações internas de diferentes países, que, em sua maioria, sequer possuem cláusulas gerais de Responsabilidade Civil, apresentando, antes, hipóteses típicas e taxativas para deflagração do dever de indenizar. Em segundo lugar, necessário aprender com os problemas já enfrentados com a experiência do Marco Civil da Internet e da Lei Geral de Proteção de Dados.

Se no Marco Civil uma década de mudanças na utilização de ferramentas de Internet trouxe a necessidade de reforma da Lei, o que dizer da Inteligência Artificial, que em apenas um ano, com a efervescência os modelos generativos, já trouxe avanços colossais? Daí a necessidade de se evitar a criação de legislações extremamente rígidas e que acabem se tornando obsoletas num curtíssimo espaço temporal. Isso passa pelo questionamento a previsões de modelos de responsabilidade que correspondam a tipos específicos de IA, cujos riscos criados podem tanto aumentar como reduzir em grande velocidade. Da mesma forma, é preciso vigiar para que os lobbies não exerçam pressão desmedida para a aprovação irrefletida de modelos baseados somente na culpa (ou de textos dúbios, como na LGPD), o que representará a fragilização das capacidades probatórias das vítimas de eventos danosos, cujo nexo de causalidade será praticamente impossível de se verificar.

Como se pode notar, o problema não é fácil e exige a necessária maturação. Os danos causados por sistemas de Inteligência Artificial já estão ocorrendo em todo o mundo e nos mais variados campos da vida: são câmeras de reconhecimento facial utilizadas pelas autoridades policiais que levam a prisões equivocadas (e ensejam a responsabilidade objetiva do Estado), são robôs nas fábricas que lesionam trabalhadores (e ensejam a responsabilidade civil dos empregadores), são veículos autônomos que vitimam seus ocupantes e pedestres (ensejando a responsabilidade civil dos fabricantes e eventualmente dos proprietários)…

A verdade é que não se pode pretender conferir resposta única a um problema que não é único, já que diversos são os tipos de sistemas de IA, os riscos e graus de autonomia associados e os sujeitos que deles se beneficiam ou os empregam. Há, entretanto, especificações que precisam ser feitas a nível regulatório, como a atribuição de responsabilidades no caso de sistemas open source e diante de iniciativas de sandboxes, assim como a previsão de modelos securitários e de fundos compensatórios complementares, como se tem discutido na experiência europeia.

Por certo, é preciso conferir segurança jurídica, estabelecendo critérios claros e minimamente previsíveis de imputação que, a um só tempo, sejam capazes de orientar as atividades empresariais sem obstaculizar ou ameaçar a reparação integral das vítimas. Todavia, tais normas não podem ser rígidas a ponto de não se adequarem às rápidas transformações na arquitetura das tecnologias. Por isso, tanto quanto possível, necessário se faz aprender com as técnicas legislativas da dogmática clássica que, apesar dos avanços, ainda consegue, no dia de hoje, atribuir responsabilidades e indenizar as vítimas pelos danos causados pelo progresso tecnológico decorrente da Inteligência Artificial. Por ora, o Direito brasileiro conseguiria socorrer o trabalhador acidentado. Resta saber por quanto tempo.

*

As opiniões expressas neste artigo são de responsabilidade única e exclusiva do autor

[1] Robô feriu engenheiro em fábrica da Tesla nos EUA, mostra relatório. UOL, 27 dez. 2023. Disponível em: <https://noticias.uol.com.br/internacional/ultimas-noticias/2023/12/27/robo-tesla-ataca-engenheiro.htm> Acesso em 04 jan. 2024.

[2] REsp n. 1.783.269/MG, relator Ministro Antonio Carlos Ferreira, Quarta Turma, julgado em 14/12/2021, DJe de 18/2/2022.

[3] Por mais, permita-se a referência a MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. São Paulo: Juspodivm, 2022, 2. ed.

[4] MEDON, Filipe. Regulação da IA no Brasil: o substitutivo ao PL 2338. Jota, 01 dez. 2023. Disponível em: < https://www.jota.info/opiniao-e-analise/artigos/regulacao-da-ia-no-brasil-o-substitutivo-ao-pl-2338-01122023> Acesso em 08 jan. 2023.

[5] Por todos, veja-se: Sousa Antunes, Henrique, Non-Contractual Liability Applicable to Artificial Intelligence: Towards a Corrective Reading of the European Intervention (February 8, 2023). Luisa Antoniolli and Paola Iamiceli (eds), ‘The making of European Private Law: changes and challenges’, University of Trento (2023 Forthcoming)., Available at SSRN: https://ssrn.com/abstract=4351910 or http://dx.doi.org/10.2139/ssrn.4351910