Qualquer pessoa que acompanha as notícias sobre privacidade sabe que a inteligência artificial (IA) cresceu muito no último ano. As leis e regras estão mudando com a tecnologia, mas a governança da IA precisa melhorar para atender às suas necessidades. A implementação de IA ainda precisa ser estabelecida, profissionalizada e amadurecida. Muitas empresas já usam IA internamente, mas ainda não possuem funções de governança adequadas.
A inteligência artificial está progredindo em quase todos os setores. Desde o ano passado, a regulação da governança de IA aumentou significativamente. As empresas começaram a priorizar a gestão de tecnologia e informação. A União Europeia (UE) implementou a primeira lei abrangente de IA do mundo, o AI Act[1].
O aumento na regulamentação deve continuar à medida que o setor se desenvolve. Uma pesquisa[2] de governança revelou que o mercado de IA cresceu significativamente desde 2021 e deve passar de cerca de US$ 2 bilhões em 2023 para US$ 2 trilhões em 2030. O Brasil também elaborou o PL 2338/2023[3], mostrando preocupação com a regulamentação da IA.
A proteção de dados pessoais e o uso responsável da IA são preocupações globais em um mundo digitalizado. Regulamentar a IA tornou-se uma prioridade global, com países buscando equilibrar inovação tecnológica e a proteção dos direitos dos cidadãos.
Este artigo oferece uma análise comparativa entre o Regulamento Europeu e o Projeto de Lei brasileiro, destacando aspectos positivos e negativos.
O AI Act adota uma abordagem baseada em risco, classificando sistemas de IA em quatro categorias: risco inaceitável, alto, limitado e mínimo. Essa categorização permite uma regulamentação precisa, onde sistemas de alto risco estão sujeitos a rigorosas avaliações de conformidade e supervisão contínua. Os requisitos incluem gestão de riscos, governança de dados, documentação técnica e supervisão humana, promovendo transparência e rastreabilidade.
Além disso, autoridades nacionais são designadas para supervisão, com avaliações de conformidade conduzidas por organismos notificados e um banco de dados para registro de sistemas de alto risco, facilitando a supervisão e rastreabilidade.
O PL 2338 também busca regular o uso de IA, mas sua abrangência e definições podem ser menos claras comparadas ao AI Act da UE. Ele pode não especificar tão detalhadamente os tipos de sistemas de IA abrangidos e os critérios para identificar riscos.
A proposta destaca a proteção dos direitos dos usuários, garantindo-lhes o direito à informação prévia sobre a interação com IA, explicações de decisões em até 15 dias, possibilidade de contestação de decisões, não discriminação e proteção de dados e privacidade. Estabelece medidas de governança, como a criação de órgãos de supervisão, práticas de gestão de risco e auditorias regulares.
Também prevê sanções rigorosas para o descumprimento das normas, com multas que podem alcançar R$ 50 milhões. Um aspecto distintivo é a responsabilidade objetiva do Estado em casos de uso governamental de IA, assegurando maior proteção aos cidadãos.
Tanto a AI Act quanto o PL 2338 compartilham princípios fundamentais, como transparência, responsabilidade e proteção dos direitos fundamentais, reconhecendo a importância de garantir que os sistemas de IA respeitem valores éticos e direitos humanos.
Um aspecto crucial da AI Act é a avaliação de risco obrigatória para certos sistemas de IA considerados de alto risco. Isso envolve a identificação e mitigação de possíveis danos causados pelos sistemas de IA.
O PL 2338 pode não ter disposições tão detalhadas para avaliação de risco e conformidade, o que pode gerar desafios na implementação efetiva e na garantia de que os sistemas de IA atendam aos padrões exigidos.
No que diz respeito às sanções, o Regulamento Europeu prevê multas significativas para o não cumprimento, incluindo multas de até 6% do volume de negócios anual global de uma empresa. Além disso, estabelece autoridades competentes para supervisionar e fazer cumprir a legislação.
O projeto brasileiro também prevê sanções, mas sua eficácia dependerá da capacidade de aplicação e execução das autoridades brasileiras. Isso pode ser um desafio onde os recursos são limitados.
Ambas as legislações reconhecem a importância da cooperação internacional na regulamentação da IA. A AI Act incentiva a cooperação entre os Estados-Membros e com países terceiros, promovendo padrões globais consistentes. O PL 2338 também busca cooperação internacional, mas pode enfrentar desafios adicionais devido a diferenças de legislação e práticas entre os países.
De forma positiva, o AI Act possui uma abordagem detalhada e técnica, proporcionando uma estrutura robusta para a regulamentação de IA. A categorização de risco permite uma regulamentação adaptativa e eficiente, evitando excessos em sistemas de baixo risco enquanto impõe rigorosos requisitos para sistemas de alto risco.
Isso pode fomentar a confiança pública na IA, essencial para a aceitação e adoção da tecnologia. Além disso, a exigência de documentação técnica e supervisão contínua garante a rastreabilidade e a transparência, facilitando a identificação e correção de problemas.
O PL 2338, por sua vez, destaca os direitos dos usuários, assegurando que a interação com sistemas de IA respeite a dignidade humana e proteja a privacidade. A responsabilidade objetiva do Estado é um mecanismo importante para garantir que projetos públicos sejam monitorados e que danos causados por IA sejam compensados. Essas disposições promovem a confiança do público na tecnologia.
Apesar das virtudes, o Regulamento Europeu pode enfrentar desafios devido à sua complexidade e potencial para burocratização excessiva. A criação de novas autoridades e processos de conformidade pode aumentar a carga administrativa, retardando a inovação e elevando os custos para as empresas. Além disso, a regulamentação rígida pode resultar em descompasso entre a legislação e a rápida evolução tecnológica, dificultando adaptações rápidas às novas realidades.
O PL 2338 enfrenta desafios relacionados à definições vagas e potencial insegurança jurídica. A inspiração em diretrizes internacionais mais principiológicas pode levar a interpretações variadas, dificultando a implementação prática das normas. A falta de um detalhamento técnico comparável ao AI Act pode resultar em uma regulamentação que não acompanha a complexidade da IA, limitando a inovação e criando ineficiências. A burocratização sem suporte técnico robusto pode tornar a aplicação das normas menos eficaz.
A AI Act da UE e o PL 2338 do Brasil representam esforços para regulamentar a IA e proteger os direitos dos cidadãos. Ambas compartilham princípios fundamentais e reconhecem a importância da transparência, responsabilidade e proteção dos direitos humanos. No entanto, a eficácia e a aplicação dessas legislações podem variar dependendo de fatores como clareza de definições, avaliação de risco, capacidade de execução e cooperação internacional.
Para garantir uma regulamentação eficaz da IA, é essencial que os países trabalhem juntos para promover padrões globais consistentes e garantir a conformidade com os princípios éticos e legais estabelecidos.
[1] AI Act – Disponível em https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 Acesso em 29.05.2024
[2] IAPP-EY Professionalizing Organizational AI Governance Report – Disponível em: https://iapp.org/resources/article/professionalizing-organizational-ai-governance-report-summary/ Acesso em 29.05.2024
[3] Projeto de Lei nº 2338/2023 – Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2308223 Acesso em 29.05.2024
AI Act – Disponível em https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 Acesso em 29.05.2024
IAPP-EY Professionalizing Organizational AI Governance Report – Disponível em: https://iapp.org/resources/article/professionalizing-organizational-ai-governance-report-summary/ Acesso em 29.05.2024
Projeto de Lei nº 2338/2023 – Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2308223 Acesso em 29.05.2024