O imperativo da regulamentação da IA no Brasil

  • Categoria do post:JOTA

“Fui discriminada publicamente por ser pobre e preta”, afirma a jovem Thais, abordada de forma bruta, humilhante e, sobretudo, equivocada por policiais em Sergipe, após erro de reconhecimento facial.[1] Esse é apenas mais um dos inúmeros casos de injustiças e discriminação que o uso de inteligência artificial (IA) nas políticas e serviços públicos vem rotineiramente causando no Brasil e no mundo. É notório que a IA traz benefícios à administração pública e à sociedade. Do mesmo modo, são cada vez mais conhecidas as suas consequências negativas e os prejuízos aos cidadãos não apenas na área de segurança pública, mas também no mercado de trabalho, sistema educacional e de saúde, previdência e assistência social[2].

Entretanto, a contradição posta é que a proliferação acelerada dessa valiosa, mas também complicada ferramenta tecnológica, não é acompanhada de ações efetivas para lidar com seus riscos, incertezas e efeitos colaterais. Quem vai pagar os danos morais e psicológicos que Thais sofreu? Qual é a responsabilidade dos agentes e do poder público pelos vieses e erros recorrentes em processos, serviços e tomadas de decisão baseadas em algoritmos? Por que não criar etapas avaliativas previamente à utilização de IA? E, principalmente, até quando essa questão tão relevante continuará fora da agenda prioritária da administração pública brasileira?

No âmbito internacional, a accountability algorítmica, isto é, as medidas para garantir que indivíduos e organizações que criam, adquirem e usam algoritmos sejam responsabilizados por seus impactos, está a pleno vapor[3]. Dois exemplos recentes dos governos britânico e estadunidense ilustram bem essa tendência. O primeiro realizou no começo deste mês uma ampla conferência (AI Safety Summit 2023)[4] com representantes internacionais de empresas líderes de IA e da sociedade civil para discutir os riscos da IA e estratégias de mitigação. Além da cúpula, foram lançados um hub global encarregado de testar a segurança dos tipos emergentes de IA e o primeiro Instituto de Segurança de IA do mundo para tratar os potenciais prejuízos no uso de algoritmos, com destaque para danos sociais como preconceito e desinformação.

Nos Estados Unidos, há duas semanas, o presidente Joe Biden editou uma Ordem Executiva[5] com medidas concretas de aprimoramento da governança do uso de inteligência direcionadas à padronização de segurança da IA, proteção de privacidade dos cidadãos e defesa dos consumidores e dos trabalhadores. Ademais, essa busca pelo uso seguro, transparente e confiável de algoritmo tem o foco na promoção da equidade e direitos civis, sobretudo mediante orientação a todas as agências governamentais para combaterem a discriminação algorítmica, considerando os danos do racismo sistêmico e da pobreza persistente.

No Brasil, todavia, essa agenda tem tido avanços bem mais tímidos, em especial no enfrentamento aos vieses e discriminação de raça e gênero, a despeito do país ter aderido aos Princípios de IA da OCDE e indicado disposição para implementá-los[6]. Nesse contexto, dois instrumentos merecem destaque: o Comitê de Governança de Dados e a Estratégia Brasileira de Inteligência Artificial (EBIA). O primeiro, desde a sua criação em 2019, tem sido ativo, emitindo resoluções sobre vários temas. Contudo, a maioria delas são centradas em salvaguardas de privacidade de dados e nenhuma se concentrou na abordagem dos riscos e responsabilidades associados à IA ou ao aprendizado de máquina (machine learning) tanto no setor público quanto privado.

A EBIA, por sua vez, é um documento formal, que visa avançar no desenvolvimento e utilização da tecnologia para o progresso científico e a solução de problemas em áreas prioritárias do país. No entanto, carece de medidas concretas para lidar com efeitos adversos das aplicações de IA, tais como preconceitos, questões relacionadas com desigualdades raciais e de gênero, como também de exclusão digital.

Esse último aspecto é fundamental na realidade brasileira, uma vez que, mesmo com o crescente uso da internet pela população, as pesquisas recentes demonstram que a qualidade do acesso é ainda bastante desigual[7], refletindo não apenas em limitações na utilização plena dos benefícios da conectividade, como também agravando à precariedade na prestação de serviços públicas aos excluídos do processo de transformação digital.

Em síntese, embora sejam instrumentos relevantes, ambos ainda são insuficientes para enfrentar o grande desafio de tornar o uso de algoritmos nas decisões e prestação de serviços mais transparente, responsivo e, principalmente, justo. Em essência, o fortalecimento da governança da IA é um processo contínuo de aprendizagem, adaptação e experimentação.

Nesse sentido, além de avançarmos na regulação, é preciso investir em capacidade estatal e na promoção de condições para a sociedade atuar como parceira do poder público no mapeamento dos riscos e, assim, dar celeridade à mitigação dos prejuízos, em especial às parcelas mais vulneráveis da população brasileira. Logo, é imperativo um amplo esforço nacional, incluindo todas as esferas de governo e Poderes da República, além do setor privado e terceiro setor, para o aprimoramento da accountability algorítmica no país.

[1] https://www.uol.com.br/tilt/noticias/redacao/2023/11/15/erro-camera-reconhecimento-facial.htm.

[2] https://www.estadao.com.br/politica/gestao-politica-e-sociedade/nem-tudo-sao-flores-no-mundo-da-inteligencia-artificial/.

[3] OECD (2023), Global Trends in Government Innovation 2023, OECD Public Governance Reviews, OECD Publishing, Paris, https://doi.org/10.1787/0655b570-en.

[4] https://www.aisafetysummit.gov.uk/.

[5] https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.

[6] OECD & CAF (2022). The Strategic and Responsible Use of Artificial Intelligence in the Public Sector of Latin America and the Caribbean, OECD Public Governance Reviews, OECD Publishing, Paris.

[7] https://cetic.br/pt/pesquisa/domicilios/indicadores/.