UE define firmes contornos em seu modelo regulatório de IA

  • Categoria do post:JOTA

Em dezembro, a União Europeia formou um acordo provisório para a elaboração da nova legislação referida como AI Act (Marco Legal da Inteligência Artificial). Com a efetivação desse acordo, seria a primeira iniciativa de uma potência econômica para regular essa modalidade de tecnologia.

Versões do texto foram vazadas em 22 de janeiro[1]. Trata-se de um acordo provisório, portanto, se deve ter cautela. Contudo, a aprovação da norma deve ocorrer antes do que se previa. As revisões e a aprovação final do Conselho Europeu devem ocorrer até abril desse ano[2]. Existe a previsão que a normativa entre em vigor entre 2024 e 2026[3].

Esse marco é relevante, visto que as discussões sobre o tema na UE se prolongam desde 2018, de forma que a primeira versão do projeto foi apresentada em 2021 e sequer fazia menção aos modelos de linguagem de propósito geral (GPAI), como aqueles que alimentam o ChatGPT e o Google Bard.

Apesar dos entraves políticos, é possível afirmar que os principais contornos já foram traçados e que a UE já tomou a decisão de regulamentar a IA de forma robusta.

A Comissão Europeia está próxima da decisão de adotar um ente central regulatório: o AI office[4]. Mas ainda não está claro se o Escritório terá autonomia ou se ele se terá objetivos políticos vinculados à Comissão Europeia.

É importante compreender que a pretensão da UE não surge de forma isolada, como mera pretensão regulatória, mas está aliada a um planejamento estratégico. Nesse sentido, destaca-se que a Comissão Europeia está preparando um framework para potencializar o desenvolvimento de startups que utilizam IA generativa[5].

O conceito de IA utilizado pela Lei deve seguir a definição que está sendo utilizada pela OCDE[6]. Basicamente, os sistemas de IA serão interpretados como sistemas mecanizados, que infere, a partir de comandos, conteúdos, recomendações, previsões ou recomendações que podem interferir no mundo físico e virtual. Dessa forma, essa interpretação vincularia os modelos de aprendizagem de máquina em larga escala (LLM, “Large Language Model”).

É ressalvado que diferentes modalidades de IA podem ter diferentes graus de autonomia e adaptação ao seu ambiente. Os sistemas a serem classificados como de alto risco devem ser concebidos de forma que se possa supervisionar de forma transparente o seu funcionamento e que impactos sejam compreendidos ao longo do seu ciclo de desenvolvimento.

Por exemplo, os modelos de linguagem de propósito geral (GPAI) serão segregados, de forma a selecionar aqueles com relevante risco sistêmico, que estarão sujeitos a critérios de avaliação e requisitos de transparência mais rigorosos. Isso incluí procedimentos interativos graduais com as autoridades, com mecanismos como testes, regulamentação técnica, manutenção de registros, supervisão humana e cibersegurança.

A norma proposta estabelece um sandbox regulatório, que prioriza a realização de testes com orientação, supervisão e apoio de autoridades competentes.

Já aplicações de baixo risco, como chatbots, estão sujeitas apenas a requisitos de transparência leves. Por exemplo, está prevista a necessidade de divulgar que o usuário está interagindo com uma IA. Ou seja, aquelas ferramentas que não apresentarem um risco relevante à saúde, à segurança ou aos direitos fundamentais terão isenções significativas.

As microempresas, por sua vez, terão acesso prioritário e taxas reduzidas nas avaliações de conformidade.

Todos os fornecedores fora da UE têm que indicar um representante para disponibilizar modelos de IA de propósito geral de alto risco na Europa.

As multas administrativas previstas no regulamento proposto são de até 35 milhões de euros ou até 7% do faturamento anual global da empresa que violar as disposições. Sempre irá prevalecer o maior valor.

O projeto prevê o banimento de uma série de modalidades de uso da IA. Nesse ponto, um dos principais obstáculos para nas negociações no parlamento europeu e a aprovação do projeto dizem respeito ao uso da tecnologia de vigilância por reconhecimento facial.

Estão vedados sistemas de categorização biométrica para deduzir ou inferir dados sensíveis como opiniões políticas, filiação a sindicatos, crenças religiosas ou filosóficas, raça, vida sexual ou orientação sexual.

São levantadas preocupações com sistemas de IA que inferem emoções, já que esses sistemas têm a confiabilidade limitada pela falta de possibilidade de se obter critérios específicos. Segundo os considerandos, essas ferramentas podem levar a resultados discriminatórios, especialmente porque a expressão de emoções varia consideravelmente entre culturas e situações, e até mesmo há uma significativa variedade de interpretações da expressão de um único indivíduo.

Também se proíbe o reconhecimento de emoções no ambiente de trabalho e em instituições educacionais, o uso de pontuação social baseada em comportamento social ou características pessoais e quaisquer sistemas de IA que manipulam o comportamento humano para contornar o livre arbítrio, como técnicas subliminares de manipulação do usuário.

A identificação biométrica em espaços públicos em tempo real é proibida, exceto em casos de interesse público superior, como busca por vítimas de crimes, pessoas desaparecidas, ameaças à vida e ataques terroristas. O projeto coloca que pessoas naturais nunca deverão ser julgadas judicialmente com base em seu perfil, traços de personalidade ou características, como nacionalidade, local de nascimento, local de residência, número de filhos, dívida e tipo de carro.

As avaliações de pessoas para avaliar o risco de que elas cometam crime baseadas unicamente no seu perfil ou na avaliação de seus traços de personalidade e características estão vedadas. Exista a exceção para sistemas que utilizam a análise dos riscos de fraudes financeiras com base em transações suspeitas ou ferramentas analíticas de riscos, para prever a probabilidade de localização de drogas ou mercadorias ilícitas por autoridades, por exemplo, com base em rotas de tráfico.

É interessante notar a intenção de evitar o surgimento de um regime distópico como o retratado no filme de ficção científica Minority Report[7], no qual um departamento de polícia futurístico apreende potenciais criminosos com fundamento em um sistema de premonições.

Sistemas biométricos usados para reconhecimento de emoções e que não são proibidos pela regulamentação, são considerados de alto risco, assim desenvolvedores devem informar sobre a sua funcionalidade e a categorização dos usuários.

Em relação aos Direitos Autorais, a proposta europeia estipula que modelos de linguagem que realizam a mineração de extensas quantidades de textos, imagens, vídeos e outros dados, utilizando conteúdos protegidos, devem obter autorização do titular desses direitos, a menos que o conteúdo seja empregado para fins de pesquisa científica.

Para aumentar a transparência no treinamento dessas ferramentas, o projeto visa impor que os fornecedores publiquem um resumo do conteúdo utilizado, levando em consideração segredos comerciais.  Esse resumo deve detalhar as principais coleções de dados empregadas no treinamento dos modelos de linguagem, incluindo bancos de dados públicos ou privados.

Vale mencionar que o regulamento europeu busca proporcionar o direito a mecanismos de opt-out para detentores de obras protegidas, a fim de que possam excluir os conteúdos das bases de dados que servem para treinar ferramentas de IA generativa[8].

Evidências apontam para o potencial da IA em impulsionar mudanças em diversas esferas. Enquanto o desenvolvimento da IA representa um salto evolutivo, também surgem discussões sobre os riscos para a humanidade.

Estamos em um momento estratégico para os atores globais. As decisões relacionadas à regulamentação da IA moldarão seu impacto no progresso, na produtividade e na dinâmica do trabalho. O Brasil, por sua vez, enfrentará uma decisão estratégica difícil, ao tentar equilibrar a proteção de direitos e a busca pela inovação.

Regulamentar a tecnologia sempre foi complexo, mas essa dinâmica se torna mais evidente agora. O impacto econômico da conformidade com novas regulamentações é expressivo, e pode concentrar ainda mais poder em grandes players. Diante da burocracia imposta pelo AI Act na Europa, há a possibilidade de transferência de projetos de pesquisa e desenvolvimento para fora da UE, apresentando um desafio à sua competitividade global.

Em um contexto nacional, é possível que seja privilegiada uma regulamentação setorial em detrimento de uma regulamentação centralizada, sem a existência de um órgão central fiscalizador e sancionador. Contudo, a Autoridade Nacional de Proteção de Dados (ANPD) já se posicionou oficialmente sua intenção de figurar como “órgão regulador central do tema[9].

O Brasil, atualmente, destaca-se mais como um mercado consumidor do que como um líder no desenvolvimento de IA. Dado o estágio tecnológico da IA no Brasil, o foco nacional está na qualificação da mão de obra e infraestrutura. Talvez, mais importante do que focar apenas na legislação proposta, seja direcionar esforços para iniciativas como o framework proposto pela UE para impulsionar startups, por exemplo.

[1] BRACY, Jedidiah. < https://iapp.org/news/a/eu-ai-act-draft-consolidated-text-leaked-online/>. Acessado em 23/01/2024.

[2] BORAK, Masha. Countdown for businesses to comply with leaked EU AI Act draft begins. < https://www.biometricupdate.com/202401/countdown-for-businesses-to-comply-with-leaked-eu-ai-act-draft-begins>. Acesso 23/01/2024.

[3] BRESLIN, Catherine. “What’s in the EU’s AI Act.” Disponível em: < https://catherinebreslin.medium.com/whats-in-the-eu-s-ai-act-6d7373618224>. Acesso em: 23/01/2024.

[4] BERTUZZI, Luca. EU Commission readies establishment of AI Office. Disponível em: < https://www.euractiv.com/section/artificial-intelligence/news/eu-commission-readies-establishment-of-ai-office/>. Acesso em: 23/01/2024.

[5] BERTUZZI, Lucas. LEAK: EU Commission prepares ‘strategic framework’ to boost AI start-ups, generative AI uptake. Disponível em: <https://www.euractiv.com/section/artificial-intelligence/news/leak-eu-commission-prepares-strategic-framework-to-boost-ai-start-ups-generative-ai-uptake/>,

[6] GROBELNIK, Marko; PERSET, Karine e RUSSEL Stuart. Updates to the OECD’s definition of an AI system explained. Disponível em: < https://oecd.ai/en/wonk/ai-system-definition-update>. Acesso em: 23/01/2024.

[7] Minority Report – A Nova Lei, 2002, filme de Steven Spielberg.

[8] QUINTAIS, João Pedro. Generative AI, Copyright and the AI Act. Disponível em: < https://copyrightblog.kluweriplaw.com/2023/05/09/generative-ai-copyright-and-the-ai-act/>. Acesso em 23/01/2023.

[9] ANPD. ANPD publica segunda análise do Projeto de Lei sobre inteligência artificial. Disponível em: < https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-publica-segunda-analise-do-projeto-de-lei-sobre-inteligencia-artificial>. Acesso em: 23/01/2023.