A crescente proliferação da inteligência artificial (IA) em diversas esferas sociais e econômicas acelerou a necessidade de regulamentação adequada que possa abordar tanto os benefícios quanto os riscos associados a essa tecnologia disruptiva. A internacionalização dessa corrida regulatória reflete um anseio global por estabelecer normas que não apenas protejam os indivíduos e a sociedade, mas também promovam a inovação e o desenvolvimento tecnológico.
A regulação da inteligência artificial, que é um tema ardente e complexo, ganha contornos especiais em um país tão diversificado como o Brasil. O Tribunal de Contas da União (TCU) em seu acórdão 616-24 destaca a delicadeza desse equilíbrio, elencando nove riscos cruciais que podem comprometer não apenas o desenvolvimento tecnológico, mas também o econômico do país. Este artigo busca discutir esses riscos, compará-los com abordagens internacionais e sugerir formas de mitigação.
Abordagens internacionais na regulação de IA
Segundo o TCU, os modelos regulatórios predominantes na governança da IA são categorizados em abordagens principiológicas, baseadas em riscos e baseadas em direitos, cada uma impactando de maneira significativa o desenvolvimento e uso da IA.
Abordagem Principiológica: Esta estratégia é guiada por valores éticos, como justiça, transparência, responsabilidade e privacidade. Proporciona um quadro extremamente flexível que se ajusta às mudanças nas necessidades e contextos, embora possa carecer da rigidez necessária para enfrentar de forma eficaz riscos específicos.
Regulação Baseada em Riscos: Esta abordagem classifica os riscos associados à IA de forma mais precisa e estabelece diretrizes específicas para diferentes categorias de sistemas de IA. Um exemplo é a União Europeia, que implementou esta metodologia no AI Act, categorizando os riscos em inaceitáveis, altos e baixos, e definindo obrigações regulatórias específicas para cada nível.
Abordagem Baseada em Direitos: Concentra-se na proteção dos direitos humanos e fundamentais, garantindo que as aplicações de IA não violem-os. Embora seja eficaz na salvaguarda desses direitos, esta abordagem pode limitar a necessária flexibilidade para acompanhar a rápida evolução tecnológica.
Nesse contexto, diversos países já avançaram em propostas legislativas e regulamentares, cada qual com suas peculiaridades. Pioneira, a União Europeia (UE) propôs uma abordagem regulatória baseada em riscos, categorizando aplicações de IA em quatro níveis de risco. Essa estratégia visa proteger os cidadãos enquanto fomenta a inovação dentro de um quadro ético robusto. Os EUA têm adotado uma abordagem mais descentralizada e setorial, focando em diretrizes éticas e deixando a maior parte da regulamentação a cargo dos Estados e da iniciativa privada. Em contrapartida, a China implementa uma regulação estatal mais rígida, com foco em segurança nacional e controle de dados, mas também com fortes investimentos em IA como motor de crescimento econômico.
Cenário brasileiro: Projetos de Lei e desafios
No Brasil, vários projetos de lei buscam estabelecer a estrutura regulatória da IA. Destacam-se o PL 21/2020 e o PL 2338/2023, que propõem desde a criação de fundamentos e princípios até a imposição de restrições baseadas no nível de risco das aplicações de IA. Contudo, à medida que o Brasil se aventura tentando avançar na criação de um marco regulatório para a inteligência artificial, o TCU apresenta uma série de riscos que poderiam não só moldar, mas também potencialmente limitar, o futuro tecnológico do país.
Essas preocupações surgem no contexto de uma rápida evolução tecnológica global, onde a capacidade de uma nação de se manter competitiva está intrinsecamente ligada à sua abordagem regulatória. O Acórdão 616/2021 traz desafios específicos que surgem a partir da regulamentação proposta, desde a dependência tecnológica até barreiras que podem obstruir inovações emergentes, cada um deles com implicações profundas para o desenvolvimento econômico, social e tecnológico do Brasil. Os riscos apresentados pela Corte de Contas, seriam:
Dependência de Importação de Tecnologia: A regulação excessiva pode inibir o desenvolvimento local, aumentando a dependência tecnológica externa.
Barreiras para Startups e Empresas Menores: Regulações desproporcionais podem impedir a entrada de novos players, essenciais para a inovação no mercado de IA.
Perda de Competitividade Internacional: Restrições mais severas podem tornar produtos e serviços brasileiros menos atrativos internacionalmente.
Monopólio e Oligopólio: Regulações podem favorecer empresas maiores em detrimento da competição justa.
Fuga de Talentos: Um ambiente regulatório hostil pode desencorajar a retenção e atração de talentos em IA.
Impacto em Setores Menos Intensivos em IA: Regulações genéricas podem afetar negativamente setores que utilizam IA de forma menos crítica.
Direitos Autorais e Desenvolvimento de IA: Restrições rígidas em direitos autorais podem limitar a inovação em IA.
Inovação no Setor Público e Privado: Regulações inflexíveis podem estagnar a inovação tecnológica nos setores público e privado.
Transformação Digital do Estado: Regulações inadequadas podem retardar a digitalização dos serviços públicos, prejudicando a oferta e a qualidade dos mesmos.
Implicações para a inovação
A forma como a IA é regulamentada pode ter um impacto significativo na capacidade de um país de permanecer competitivo no cenário tecnológico global. Regulamentações demasiadamente rígidas podem estagnar a inovação e desencorajar investimentos, enquanto políticas demasiadamente flexíveis podem falhar em proteger contra os riscos potenciais. A escolha do modelo regulatório adequado deve, portanto, encontrar um equilíbrio entre proteção e liberdade, permitindo que a inovação floresça ao mesmo tempo em que garante a segurança e o respeito pelos direitos fundamentais.
À medida que a IA continua a se desenvolver em um ritmo acelerado, a necessidade de uma regulamentação adequada se torna cada vez mais crítica. As estratégias adotadas por diferentes nações ou blocos econômicos podem servir como modelos para outros países, e o diálogo e a cooperação internacionais serão essenciais para garantir que a governança global da IA seja tanto eficaz quanto propícia à inovação.
A balança entre proteger direitos e privacidade versus fomentar a inovação tecnológica está em um ponto crítico. O Brasil está diante de um desafio monumental: moldar um futuro em que a tecnologia não apenas avança, mas avança de forma justa e inclusiva. As regulações não devem apenas impor limites, mas também pavimentar caminhos para novas possibilidades, garantindo que a evolução tecnológica beneficie todos, sem sacrificar a ética ou a competitividade global.
Portanto, a questão que se impõe é: vamos permitir que a regulamentação seja um entrave à inovação, ou vamos transformá-la em uma alavanca para um desenvolvimento equilibrado e sustentável? A escolha que fizermos agora definirá o papel do Brasil no palco tecnológico mundial por décadas. É hora de regular com visão de futuro, não com medo do novo.
*
As opiniões contidas no texto são pessoais e não expressam o posicionamento institucional do Tribunal de Contas do Estado de São Paulo