‘É cedo para regular a IA’, alerta vice-presidente da Comissão de IA na Câmara

  • Categoria do post:JOTA

“Está cedo para regular. Para mim, está claro que não estamos maduros para isso”, alertou a deputada federal Adriana Ventura (Novo-SP), vice-presidente da Comissão Especial sobre o Projeto de Lei (PL) 2338/2023, que propõe um marco legal para a Inteligência Artificial. A fala ocorreu em um evento realizado nesta terça (11/11) na Casa JOTA, em Brasília, com patrocínio do Itaú.

No encontro, a deputada defendeu a continuidade do debate sobre como equilibrar a inovação tecnológica e a segurança dos cidadãos com foco na população, na competitividade do país e em quem produz e gera emprego. O projeto aguarda o parecer do relator, deputado Aguinaldo Ribeiro (PP-PB), na Comissão presidida pela deputada federal Luísa Canziani (PSD-PR).

Um dos pontos mais discutidos no evento e ainda sem consenso é a definição do nível de sensibilidade sobre o reconhecimento facial e a biometria. O PL 2338/2023, em sua redação atual, classifica o uso de sistemas de identificação biométrica à distância, em tempo real e em espaços públicos, como de “risco excessivo”. 

A deputada Canziani, que também participou do painel, esclareceu que a classificação “não significa proibição absoluta, mas um alerta de que a tecnologia ela de alguma forma pode gerar impacto significativo sobre algum direito fundamental”. Contudo, ela reconheceu a necessidade de aperfeiçoamento. “Existem contextos no sistema financeiro, por exemplo, em caixas eletrônicos, na autenticação de transações, em que o uso da biometria é completamente seguro, ele traz benefícios aos cidadãos e já é regulado por órgãos setoriais, como o Banco Central”, explicou.

Por outro lado, a classificação como alta sensibilidade (risco excessivo) pode ser prejudicial para a inovação e para alternativas tecnológicas com foco em segurança no sistema financeiro. Vicente de Chiara, diretor jurídico da Federação Brasileira de Bancos (Febraban), enfatizou a importância em manter a confiança atual da sociedade no sistema financeiro. 

“Qualquer tipo de incerteza sobre o sistema recairá em toda a sociedade porque tudo o que fazemos passa por esse sistema: de um cafezinho a compra de um imóvel”. Por isso, aponta ele, a IA é crucial para a identificação (saber se a pessoa solicitando a transação é ela mesma) e para a prevenção (se o dinheiro está indo para um local lícito ou ilícito).

A preocupação é que o reconhecimento facial, que pode promover a segurança, seja vetado na prática. Vicente de Chiara citou o uso crucial da biometria facial nos caixas automáticos como uma ferramenta vital para identificar fraudes. “Dependendo da redação final do PL, haverá uma proibição desta situação, embora seja desejável que ela ocorra para a segurança de todos nós”.

Vicente de Chiara, da Febraban; deputada federal Adriana Ventura; Luís Fernando Prado, da Abria; e Luísa Carvalho, repórter do JOTA. Foto: Rômulo Serpa

Vedação à prevenção de fraudes

Luís Fernando Prado, conselheiro consultivo da Associação Brasileira de Inteligência Artificial (Abria), pontuou que o projeto veda antecipadamente práticas essenciais de segurança. O PL proíbe o desenvolvimento de sistemas de IA para analisar comportamentos passados e prever a prática de fraudes, de crimes, de cometimentos de crime, que é justamente o ponto central da prevenção à fraude. Prado alertou que o Brasil tem “índices de fraude avassaladores comparados a nível global” e que 95% dos sistemas antifraude já utilizam IA.

Para o conselheiro da Abria, o texto restringe o uso legítimo de tecnologia para justamente coibir as ações dos fraudadores, tornando a luta contra o crime uma “briga injusta”, já que o fraudador usará a tecnologia para o mal. “Os setores produtivo, financeiro e de tecnologia ficarão impedidos de usar a tecnologia para o bem, para frear as ações desse fraudador”.

Outro ponto levantado é a necessidade de alinhar o marco regulatório com a regulação setorial. Ventura afirmou que a sobreposição de competências pode gerar conflitos. Para ela, a regulação da IA tem que ser setorial, cabendo à Agência Nacional de Proteção de Dados (ANPD) um papel “guarda-chuva”, de olho na coerência, na proteção de dados e na transparência. “Cada setor teria de lidar com o lado operacional, com o que precisa ser ajustado e como seria a fiscalização”, disse.

Para Vicente de Chiara, o Banco Central é o órgão competente que entende a dinâmica e deve fazer a regulação específica, inclusive “para definir o que é risco excessivo ou não”.

Luisa Canziani (PSD-PR) participou do evento. Foto: Rômulo Serpa

Luís Fernando Prado, conselheiro consultivo da Abria, criticou a insegurança jurídica causada pela redação de riscos do PL, que usa termos abrangentes como “afetar significativamente” e permite que a lista de alto risco seja ampliada por critérios complementares. “O que é afetar significativamente? Cada um aqui vai ter uma noção subjetiva do que é isso. Acredito que devemos ter muita atenção e até tentar prever hoje o que é risco de IA”, detalhou.

O rigor do texto atual, inspirado na regulação europeia, é visto como um risco para o desenvolvimento nacional de IA. Segundo Prado, o texto pode praticamente inviabilizar o acesso a dados automatizados que são necessários para treinar modelos de linguagem. Um modelo bem treinado para o sistema financeiro, por exemplo, “precisa saber o que é golpe do PIX”, algo que modelos estrangeiros não reconheceriam.

Adriana Ventura critica a insistência em copiar um projeto de lei europeu, sendo que a própria lei europeia tenta, neste momento, rever pontos para destravar investimentos que foram represados em razão do modelo aprovado. 

Em contraste, o modelo que atrai olhares positivos é o do Japão, que possui uma lei pró-inovação. Luís Fernando Prado explicou que a lei japonesa é mais permissiva no acesso a dados para treinar modelos de inteligência artificial, pois entende que treinar modelos não é copiar dados e monetizar dados diretamente. O risco, concluiu Prado, é que o Brasil se torne um mau exemplo. “Não somos um país reconhecido como protagonista no campo da inteligência artificial a nível de desenvolvimento e investimento. Então, a regulação precisa ser uma aliada nesse sentido.”

Próximos passos e votação

A tramitação do PL 2338/2023 na Câmara dos Deputados está marcada por contraste de expectativas quanto ao cronograma de votação. De um lado, há uma expectativa tanto do relator, deputado Aguinaldo Ribeiro, como do presidente da Casa, Hugo Motta (Republicanos-PB), de que o projeto seja votado ainda neste ano. O relator, inclusive, já sinalizou que o texto do projeto deve ser apresentado ainda neste mês de novembro. 

Por outro lado, Ventura sugeriu que o ideal seria estender a discussão e regulamentar agora apenas o que é essencialmente problemático em cada setor, deixando o restante para depois das eleições. Isso evitaria tratar do tratado em meio à “guerra pré-eleitoral”. Ela acredita que, se houver votação, ela terá que ocorrer antes do segundo semestre do próximo ano, pois em ano eleitoral “nada vai acontecer”.

Assista o evento na íntegra

Nota Editorial

Este texto foi produzido com apoio de ferramentas de inteligência artificial e revisado por nossos editores, garantindo rigor e qualidade editorial do JOTA.