A inteligência artificial (IA) está modificando várias indústrias, com impactos na produtividade e reconfiguração do trabalho. Porém, alguns riscos ainda preocupam, como o uso de conteúdo falso em fatos inventados, vieses discriminatórios, roubo de identidade e vazamento de dados pessoais. Para conduzir essa tecnologia, as instituições reguladoras têm a complexa função de criar normas e legislações nesse cenário intenso de crescimento.
Embora alguns países defendam um modelo de regulamentação centralizada, com a criação de uma agência fiscalizadora, acreditamos que cada área precisa de suas próprias regras para continuar competitiva, como os sistemas de autenticação por biometria, que usa a IA para tratar dados, características pessoais e documentos.
No Brasil, a Comissão Temporária do Senado Federal responsável pelo Marco Regulatório da IA (PL 2338/2023) acaba de divulgar o relatório preliminar que apoiará a construção da nova regulamentação, centralizado no uso responsável e ético da tecnologia. O documento diferencia a coleta de dados biométricos para fins de identificação (como vigilância e busca por pessoas desaparecidas) e de autenticação (como na identidade digital), excluindo a segunda como categoria de alto risco.
O Brasil possui grande ineficiência na identificação de pessoas. De acordo com estudo encomendado pela Unico à FGV (Fundação Getulio Vargas), a identificação analógica desperdiça R$ 104 bilhões por ano. O prejuízo vem de fraudes, burocracia, contratos legais, entre muitos outros. Para o brasileiro provar sua própria identidade, o custo é de quase R$ 1.000 por ano.
Parte desse gasto pode ser evitado com a adoção de tecnologias de autenticação digital, que aumentam a precisão e a confiabilidade das credenciais individuais, automatizam processos e inovam a prestação de serviços. A regulamentação é essencial para tratar essas informações com ética e privacidade, além da ampliação da base de dados para o treinamento mais assertivo dos algoritmos de IA.
Recentemente, a Secretaria de Segurança Pública do Rio de Janeiro anunciou a ampliação do banco de dados usado para identificar suspeitos por reconhecimento facial. Duas pessoas detidas foram liberadas após a constatação de falsos positivos. Esse evento mostra que a regulamentação da IA deve ser determinada e aplicada caso a caso. O uso da biometria facial com a câmera do próprio celular para a abertura de uma conta bancária é muito diferente de seu uso em um espaço amplo e coletivo com fins de vigilância.
O processo de regulamentação deve assegurar que as tecnologias resolvam problemas reais, respeitando sempre os direitos dos cidadãos. Para o regulado, o compromisso com a privacidade e o uso ético e responsável da IA. Do regulador, um mecanismo para comprovar esse controle. A única forma de se certificar disso é com normas e definições de padrões.
No caso da biometria, as leis precisam ser ainda mais duras, elevando a barra da LGPD para tratar de privacidade e sua forma de uso. Precisamos de sistemas que garantam a transparência no uso dos dados pessoais, coletados e processados diariamente, ampliando o acesso a serviços e produtos com segurança. O controle sobre o uso das informações precisa ser devolvido ao seu titular: o cidadão.
O desafio está no impacto das novas soluções, especialmente a IA generativa – e a regulação nem sempre atende a esse desafio, além de não conseguir acompanhar o ritmo das transformações. Precisamos de leis que sejam perenes e efetivas ao longo do tempo e, por isso, convido empresas e demais entidades a buscarem informações e participarem desse debate, a fim de termos um marco legal que concilie o avanço tecnológico com a proteção dos direitos fundamentais das pessoas.