Desafios da governança algorítmica no setor público brasileiro

  • Categoria do post:JOTA

A inteligência artificial está se tornando uma peça-chave nos esforços de modernização do Estado brasileiro. Com investimentos bilionários previstos até 2028 e um plano nacional estruturado, o governo federal, detentor de um dos maiores repositórios de dados sensíveis, busca consolidar a IA como aliada na entrega de serviços mais eficientes. 

Prontuários eletrônicos com transcrição por voz no SUS, uso de inteligência artificial e big data para otimizar o diagnóstico e tratamento do câncer, disponibilização de dados climáticos para prevenção de desastres, projetos de cidades inteligentes, automatização de processos judiciais e modernização das licitações públicas são apenas alguns dos campos em que o governo brasileiro tem investido na aplicação de sistemas baseados em inteligência artificial.

Mas à medida que algoritmos ganham espaço na administração, cresce a urgência por regras claras, transparência e mecanismos de controle. Afinal, quem vigia as máquinas que nos julgam?

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

A regulamentação da inteligência artificial no Brasil ainda está em fase de construção. O principal avanço recente é o PL 2338/2023, atualmente em tramitação na Câmara dos Deputados, que propõe um marco legal inspirado no modelo europeu, com foco em riscos, transparência e proteção de direitos.

O texto prevê avaliações de impacto algorítmico, critérios de explicabilidade e mecanismos de governança, sendo especialmente relevante para o uso da IA em decisões públicas automatizadas.

Experiências internacionais evidenciam a relevância de mecanismos institucionais de governança algorítmica como condição para assegurar a utilização ética e transparente da inteligência artificial no setor público. Em termos simples, governança algorítmica refere-se ao conjunto de regras, processos e instituições destinados a garantir que os sistemas de inteligência artificial sejam utilizados de forma ética, transparente e sob controle humano contínuo.

O Plano Brasileiro de Inteligência Artificial (PBIA) propõe medidas relevantes em infraestrutura, capacitação e desenvolvimento de soluções tecnológicas. Projetos como o Núcleo de IA do governo federal e o Programa de Soluções de IA para Serviços Públicos prometem reposicionar o Estado brasileiro no mapa da inovação. Porém, o plano avança timidamente em termos de governança. A criação de comitês de supervisão ainda não saiu do papel.

A ausência de estruturas efetivas de governança aumenta significativamente o risco de falhas, abusos e violações, como evidenciado por episódios envolvendo sistemas automatizados no INSS, que comprometeram direitos de segurados por decisões automatizadas não auditadas adequadamente. A vulnerabilidade não está apenas na tecnologia, mas na falta de controle sobre sua aplicação.

Outro exemplo relevante é o do Canadá, que adotou o Algorithmic Impact Assessment (AIA) — um instrumento estruturado de avaliação prévia que permite identificar os riscos associados a sistemas algorítmicos antes de sua implementação. A ferramenta contempla mecanismos de mitigação, classificação por níveis de impacto e diretrizes de governança, contribuindo para reforçar a transparência e a responsabilização no uso de IA no setor público.

A resposta institucional brasileira exige uma abordagem integrada baseada em três pilares: assegurar a transparência algorítmica — inclusive nos contratos com empresas fornecedoras de tecnologia —, garantir o devido processo tecnológico, com direito à explicação e contestação de decisões automatizadas, e instituir mecanismos permanentes de governança com composição multidisciplinar, a exemplo do AI Governance Working Group criado na Nova Zelândia.

O objetivo não é restringir a inovação, mas sim assegurar que seu avanço ocorra de forma legítima, ética e compatível com os princípios democráticos.

É importante reconhecer que os sistemas de IA baseados em aprendizado de máquina operam com base em dados e decisões passadas. Essa característica, embora útil para a eficiência, pode comprometer a capacidade de inovar juridicamente e reproduzir injustiças históricas. Algoritmos não captam contextos humanos, nem interpretam intenções. Em processos que exigem avaliação subjetiva, como o reconhecimento da boa-fé, confiar exclusivamente em sistemas estatísticos é uma limitação grave. 

Apesar do nome, a chamada inteligência artificial ainda está longe de ser verdadeiramente inteligente ou autônoma. Ela opera com base em instruções e dados definidos por seres humanos, e exige acompanhamento constante em todas as fases de seu uso — da concepção à supervisão. Tratar a IA como uma entidade neutra e autossuficiente é ignorar os fatores humanos, técnicos e institucionais que determinam seus resultados.

Nesse sentido, a governança da IA deve ser guiada por princípios estruturantes, entre eles o da inteligência artificial centrada no ser humano, como preconizado pela OCDE, Unesco e União Europeia. Tal princípio estabelece que o desenvolvimento tecnológico deve sempre respeitar a dignidade, os direitos fundamentais e a autonomia dos indivíduos.

Diversos órgãos públicos já editaram normativos prevendo auditorias de sistemas de inteligência artificial e a atuação de comitês de governança. No entanto, poucas dessas iniciativas se materializaram de forma efetiva na prática institucional. A governança algorítmica exige mais do que dispositivos formais em portarias publicadas no Diário Oficial — trata-se de um compromisso contínuo com a transparência, o controle social e a supervisão técnica no uso de tecnologias automatizadas.

Se o Brasil almeja incorporar a inteligência artificial como ferramenta de aprimoramento institucional e garantia de direitos — e não como fator de assimetria e opacidade — é imprescindível que essa discussão seja efetivamente institucionalizada.

Para que a IA alcance seu pleno potencial, é necessário enfrentar concretamente os desafios associados à sua adoção. Isso começa com um gesto simples, mas simbólico: incluir a sociedade civil, os órgãos de controle e o conhecimento técnico no espaço onde os algoritmos são concebidos e aplicados. 

O avanço tecnológico só cumprirá sua promessa democrática se for acompanhado de estruturas permanentes de supervisão e participação, como comitês de governança algorítmica, mecanismos de proteção de dados e auditorias aleatórias e periódicas.