Um ‘sextou’ diferente e histórico para a regulação da inteligência artificial

  • Categoria do post:JOTA

A sexta passada (8 de dezembro de 2023), como disse Ursula von der Leyen, presidente da Comissão Europeia, foi “um dia histórico”.

No Brasil, o deputado Carlos Chiodini (MDB-SC) apresentou Projeto de Lei para alterar o Código Eleitoral e inserir os artigos 57-J, 57-K, 57-L. Os dispositivos buscam regular o uso de inteligência artificial para fins de propaganda eleitoral, vedando o uso para fins de confundir ou causar desinformação e determinando envio de relatório de impacto e que o uso seja informado ao cidadão afetado, sob pena de responsabilização que podem chegar a multas de até R$ 30 mil.

Na quinta-feira (7) a Câmara dos Deputados já havia aprovado o PL 5592/2016, de autoria da deputada Erika Kokay (PT-DF), que promove alterações no Código Penal e no Estatuto da Criança e do Adolescente (ECA) para criminalizar o uso de inteligência artificial para criar imagens de mulheres em situações de intimidade ou nudez. O texto segue agora para votação do Senado.

Embora tratem-se de projetos interessantes e, pode-se dizer que diante dos riscos da IA à democracia, necessários nos tempos atuais, trazem algumas obrigações que serão de difícil concretização prática e controle. Isso porque estudos atuais demonstram preocupação com o fato de que ainda não há tecnologia capaz de detectar conteúdos produzidos por IA, tampouco selos totalmente eficazes contra ataques hackers para reconhecer esses conteúdos[1]. O desafio continua e a legislação deve vir no sentido de estimular empresas que produzem esse tipo de tecnologia capaz de reconhecer os produtos da IA.

Na ONU, o “sextou” foi com as primeiras reuniões do High-Level Advisory Body on Artificial Intelligence. Os 38 especialistas mundiais estiveram juntos na sede das Nações Unidas para discutir impactos e desafios regulatórios da IA, que resultarão na produção de relatório sobre governança da inteligência artificial.

Mas foi da União Europeia e seus 27 Estados-membros que veio a notícia mais quente e aguardada do ano em relação à regulação de IA. Após anos de debates, que passaram pela constituição de um comitê de experts em 2018, que apresentou um relatório com critérios para IA confiável e humanocêntrica em 2019 e de discussões parlamentares acaloradas que incluíram impasses com França, Itália e Alemanha[2], a UE chegou a um consenso provisório para regulação da inteligência artificial. Nesses cinco anos, a tecnologia passou por inúmeros avanços.

A rodada final de negociação, chamada de dia D, durou 36 horas no teólogo (comissão, conselho e parlamento). Trata-se de texto extenso e detalhado que institui responsabilidades e atribui sanções aos atores da IA no mundo. Trago aqui alguns pontos de destaque:

A consolidação da escolha de uma abordagem baseada em riscos. Isso significa que, quanto maiores os riscos provocados pelo resultado da IA em determinadas situações elencadas pela lei, maior o rigor e maiores os deveres e obrigações de atores envolvidos com sistemas de IA.

Aqui cabe destacar que a maioria dos sistemas está classificada na categoria de risco mínimo. Aqueles classificados como alto risco devem cumprir e respeitar requisitos mais rigorosos como: sistemas de mitigação de riscos, apresentar conjunto de dados de alta qualidade, registrar as atividades durante o ciclo de vida da IA, assim como apresentar documentação detalhada, informações claras do utilizador, supervisão humana e um alto nível de robustez, precisão e segurança cibernética. São exemplos, os sistemas médicos de IA e aqueles usados para reconhecimento de emoções (que em versōes anteriores chegaram a ser classificados como banidos).

Alguns riscos são classificados como inaceitáveis e por isso a lei prevê seu banimento. São exemplos os sistemas de policiamento preditivo e os sistemas de IA no setor público para pontuação social, bem como sistemas para reconhecimento de emoções em local de trabalho.
A legislação, assim como o PL brasileiro que busca alterar o Código Eleitoral, também preocupa-se com as deep fakes e obriga que sua utilização venha acompanhada de identificação e informação de que o conteúdo foi produzido pela IA.
Proteção de direitos fundamentais e estímulo a sustentabilidade dos modelos.
Previsão de existência de órgãos nacionais de controle da IA, assim como de um Gabinete Europeu de IA para auxiliar as autoridades nacionais de fiscalização, que pretende ser a primeira instituição a nível internacional no tema e, portanto, referência no controle de IA responsável;
Modelos fundacionais e generativos foram incluídos no texto e com obrigação de respeito à transparência, avaliação, testes e gestão de riscos sistêmicos em todo ciclo de seu desenvolvimento;
O descumprimento da legislação pode gerar multas que variam de 35 milhões de euros ou 7% do volume de negócios anual global (o que for maior) por violações de aplicações de IA proibidas, 15 milhões de euros ou 3% por violações de outras obrigações e 7,5 milhões de euros ou 1,5% por fornecimento de informações incorretas.

A regulação está prevista para entrar em vigor 20 dias após sua publicação, depois da aprovação formal do Parlamento Europeu e do Conselho Europeu, e terá uma vacatio legis de dois anos. Os banimentos, entretanto, já serão aplicáveis após seis meses de sua entrada em vigor, enquanto que as regras sobre IA generativa serão aplicáveis após 12 meses de publicada a lei.

Como pioneira na regulação, a UE busca consolidar-se como líder mundial na governança e promoção da IA responsável, tanto é assim que compromete-se a continuar trabalhando em instâncias internacionais como o G7, a OCDE, o Conselho da Europa, o G20 e a ONU.

A ver se o famoso efeito Bruxelas[3] irá, assim como foi no Regulamento Europeu de Proteção de Dados, se consolidar e promover uma onda de regulações inspiradas no AI Act mundo afora.

[1] Vinu Sankar Sadasivan, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang, Soheil Feizi. Can AI- Generated Text be Reliably Detected? Disponível em: https://arxiv.org/abs/2303.11156

[2] A ponto de gerar Carta aberta direcionada aos Presidentes Macron, Meloni e Scholz de especialistas do AI4People Institute, assinada por especialistas como Luciano Floridi, pedindo consenso regulatório. Disponível em: https://www.eismd.eu/letter_to_mr_macron_mrs_meloni_mr_scholz_26-11-2_231128_160302.pdf

[3] Anu Bradford. The Brussels Effect: How the European Union Rules the World, Oxford Press University, 2020.