Vigilância algorítmica e estado de polícia: a fronteira entre segurança e abuso

  • Categoria do post:JOTA

O Brasil entrou na era da vigilância algorítmica.

O Estado do Rio de Janeiro anunciou em janeiro o lançamento do programa Sentinela[1], o maior programa de tecnologia aplicada à segurança pública da América Latina, prevendo, dentre outras medidas, a instalação de 200 mil câmeras com tecnologia de reconhecimento facial, além de leitura automatizada de placas de veículos e análise inteligente e tecnológica de imagens.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

Sistemas de reconhecimento facial já são utilizados por agentes de segurança pública em estádios, aeroportos, estações de transporte e grandes eventos.

A promessa é que essa tecnologia traria mais eficiência, menos erro humano, e combate rápido à criminalidade.

Diante desse cenário, uma questão inevitável surge: qual o limite do Estado no uso dessas ferramentas?

A corrente europeia da regulamentação de IAs

Considerando a atualidade e a elevada relevância do tema, muitos países encontram-se em processo de elaboração de marcos regulatórios sobre inteligência artificial e reconhecimento facial, seja por meio de projetos legislativos, seja por Medida Provisória ou instrumento regulatório equivalente.

Nesse sentido, a União Europeia tem se destacado como uma das pioneiras na discussão e na criação de normas claras voltadas a regular o desenvolvimento e o uso da inteligência artificial, incluindo tecnologias de reconhecimento facial.

Em julho de 2023 a Corte Européia de Direitos Humanos julgou o caso Glukhin v. Russia[2], considerada um marco importante no debate dos limites jurídicos e do controle de legalidade das tecnologias de reconhecimento facial[3].

No caso, o jornalista e ativista Nikolay Gluhkin realizou sozinho, em 2019, um protesto pacífico no metrô de Moscou, com um cartaz de outro ativista que havia sido preso.

Pouco após o protesto, as autoridades russas identificaram Gluhkin através de um sistema de reconhecimento facial integrado entre milhares de câmeras de segurança da capital russa, condenando-o pelo ilícito administrativo de realizar um protesto sem autorização oficial.

No julgamento, a Corte Europeia caracterizou o reconhecimento facial como uma forma de vigilância “altamente intrusiva[4]. Diferente dos métodos tradicionais de policiamento, essa tecnologia envolve a coleta e tratamento de dados biométricos sensíveis, criando a possibilidade de monitoramento contínuo de indivíduos em espaços públicos.

Essa capacidade, desenvolveu a Corte, exigiria uma base legal clara, com parâmetros de controle de legalidade e fundamentação da urgência. Sob esse entendimento, a Corte concluiu que a interferência realizada pela Rússia nos direitos do ativista foi desproporcional, enfatizando que a eficiência, por si só, não pode justificar intrusões em direitos fundamentais quando presentes alternativas menos severas.

Em resposta ao avanço dessas tecnologias, a União Europeia aprovou, em 2024, o Artificial Intelligence Act, considerado um dos primeiros marcos regulatórios abrangentes dedicados à regulação da inteligência artificial.

A legislação adota uma abordagem baseada em quatro diferentes categorias de risco – mínimo, limitado, alto e inaceitável – classificando os sistemas de IA conforme o seu potencial impacto sobre direitos fundamentais.

A partir dessa classificação, o regulamento estabelece diferentes níveis de exigências regulatórias: sistemas de menor risco ficam sujeitos a obrigações mais leves, enquanto as consideradas de “alto risco” devem cumprir requisitos rigorosos de transparência, supervisão humana e auditorias técnicas. Já os sistemas classificados como de “risco inaceitável” são expressamente banidos pelo regulamento.

Para essa legislação, o reconhecimento facial remoto por autoridades de segurança pública, em espaços acessíveis ao público, é banido, em regra, por ser considerado de “risco inaceitável”. O regulamento admite exceções em hipóteses estritas, como quando a medida for “necessária para a busca de pessoas desaparecidas ou para a prevenção de ameaças específicas, nomeadamente ataques terroristas”.

A ausência de regulamentação no Brasil

Atualmente, em que pese a Constituição Federal estabelecer garantias individuais, como a proteção à privacidade, à imagem e a presunção de inocência, no Brasil ainda não há um marco legal federal regulamentando especificamente o uso de inteligência artificial, nem estabelecendo limites para o uso de reconhecimento facial em matéria de segurança pública.

Existem normas que tangenciam o tema. Um exemplo é a Lei Geral de Proteção de Dados (Lei 13.853/2019) que define dados biométricos – dentre os quais se incluem os dados faciais – como dados pessoais sensíveis (art. 5º, II), mais rigorosamente protegidos pela lei.

A própria LGPD, entretanto, admite exceções a essa proteção, como a prevista no art. 11º, II, b, permitindo à administração pública a utilização desses dados quando “necessários à execução de políticas públicas”, hipótese que legalmente justifica a utilização de dados biométricos faciais por autoridades policiais.

Tramita atualmente na Câmara dos Deputados o projeto de lei 2338/2023[5], o chamado “PL da Inteligência Artificial”, que, no mesmo modelo europeu, prevê categorias de risco aos sistemas de AI – mas que, no presente momento legislativo do projeto de lei, adota uma postura mais branda quanto ao uso de reconhecimento facial por autoridades policiais.

Este PL admite o uso de sistemas de identificação biométrica para a instrução de processos criminais, busca de pessoas desaparecidas, para prisões em flagrante de delitos com pena máxima superior a dois anos e para cumprimento de mandados de prisão.

Assim, apesar da crescente utilização dessas tecnologias pelo poder público, ainda não existem no Brasil regras claras que estabeleçam os limites jurídicos para seu uso. Na prática, isso significa que as autoridades de segurança pública podem recorrer a esses sistemas de reconhecimento facial com relativa liberdade, diante da ausência de uma legislação específica disciplinando a matéria.

Esse cenário tende a permanecer até que o Congresso Nacional avance na discussão e eventual aprovação do Projeto de Lei nº 2338/2023. Esse hiato regulatório representa um momento crítico, em que o uso indiscriminado dessas tecnologias pode abrir espaço para potenciais violações de direitos humanos.

A tecnologia não é neutra

O reconhecimento facial funciona por meio de algoritmos treinados com grandes bancos de imagens. O problema é que esses bancos de dados não são neutros. Estudos internacionais e relatórios técnicos já demonstraram que esses sistemas apresentam maior taxa de erro quando identificam pessoas negras, mulheres e jovens[6].

Um estudo do MIT[7] (Instituto de Massachusetts de Tecnologia), de 2018, verificou que em três algoritmos de reconhecimento facial de grandes empresas distintas (IBM, Microsoft e a chinesa Face++), o reconhecimento funcionava melhor para homens e pessoas brancas. Enquanto a taxa de erro para homens brancos era de apenas 0,8%, a de mulheres negras – a categoria que os algoritmos mais tiveram dificuldade em identificar – a taxa de erro chegou a 34.4%.

Outro estudo de 2022, da Universidade Estadual de Georgia[8], analisando prisões realizadas por mais de 3000 agências de polícias locais, estaduais e federais, concluiu que o uso de tecnologia de reconhecimento facial contribuiu para maior disparidade racial nas prisões em flagrante, acarretando um aumento de prisões de pessoas negras e diminuição de prisões de pessoas brancas.

Isto pois os algoritmos são treinados predominantemente com populações brancas, o que introduz um viés racial na identificação de indivíduos.

No Brasil, onde o sistema penal já opera com forte seletividade racial e social, em que a população negra representa 68,2% dos presos no Brasil,[9] a incorporação dessa tecnologia sem critérios rigorosos de transparência e controle pode contribuir para reforçar desigualdades históricas.

O criminologista Alessandro Baratta, por exemplo, criticou a incidência de estereótipos e preconceitos na aplicação jurisprudencial da lei penal, destacando pesquisas empíricas que evidenciam as diferenças de atitude emotiva e valorativa de juízes em face de acusados pertencentes a diversas classes sociais.

Para este autor, essa diferença de percepção tende a produzir, inconscientemente, uma expectativa desigual de comportamento: espera-se “comportamento conforme à lei de indivíduos pertencentes aos estratos médios e superiores e o inverso com indivíduos provenientes dos estratos inferiores”[10].

Por outro lado, a neutralidade dos algoritmos de IA também tem sido questionada para além dos problemas dos vieses históricos e sociais presentes nos dados utilizados para seu treinamento.

Há uma dimensão adicional de preocupação. Quando o Estado passa a depender de grandes plataformas e multinacionais de tecnologia para exercer funções de segurança pública, surge uma nova camada de poder:  a de quem cria e controla o algoritmo, e com quais interesses ela é desenvolvida.

Para o economista grego Yanis Varoufakis[11], vivemos num modelo econômico denominado como “tecnofeudalismo”, no qual o poder não se concentra apenas no capital financeiro e político, mas sobretudo no controle de dados, plataformas digitais e infraestrutura tecnológica.

Os riscos desse modelo não são meramente acadêmicos. Em 2025, por exemplo, a IA generativa Grok, desenvolvida pela empresa xAI, do bilionário Elon Musk, foi alvo de críticas por gerar comentários abertamente antisemitas[12] e promover narrativas falsas de um suposto “genocídio branco” na Africa do Sul[13].

Episódios como esse demonstram que sistemas de inteligência artificial podem refletir — ou amplificar — vieses ideológicos, políticos ou culturais presentes em sua concepção.

Diferentemente de um Estado Democrático, empresas privadas de tecnologia não estão necessariamente submetidas aos mesmos parâmetros de responsabilidade pública, transparência e controle social.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

Em um sistema de reconhecimento facial, por exemplo, seria possível direcionar algoritmos para identificar ou monitorar determinados grupos sociais, étnicos, religiosos ou políticos — como pessoas que utilizem símbolos religiosos específicos ou vestimentas associadas a determinado movimento político.

Por fim, este cenário de rápida expansão tecnológica traz o risco de ampliar desigualdades e fragilizar direitos fundamentais, tornando urgente o estabelecimento de regulamentação clara para o uso de reconhecimento facial, com mecanismos de transparência e supervisão tanto no desenvolvimento quanto na aplicação estatal dessas ferramentas.


[1] https://g1.globo.com/rj/rio-de-janeiro/noticia/2026/01/21/governo-anuncia-licitacao-para-a-instalacao-de-200-mil-cameras-de-seguranca-no-estado-do-rio.ghtml

[2] https://hudoc.echr.coe.int/#{%22itemid%22:[%22002-14142%22]}

[3] https://www.fedbar.org/blog/glukhin-v-russia-the-european-court-of-human-rights-first-step-into-the-age-of-ai-surveillance/

[5] https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2487262

[6] https://www.media.mit.edu/projects/gender-shades/overview/, https://conectas.org/en/noticias/artificial-intelligence-the-risks-of-racist-biases-in-non-regulated-digital-technologies-in-public-security/

[7] https://www.media.mit.edu/projects/gender-shades/overview/,

[8] https://www.sciencedirect.com/science/article/abs/pii/S0740624X22000892?via%3Dihub

[9] https://agenciabrasil.ebc.com.br/justica/noticia/2023-03/populacao-negra-representa-682-dos-presos-no-brasil.

[10] BARATTA, Alessandro. Criminologia Crítica e Crítica do Direito Penal. Introdução à Sociologia do Direito Penal. Rio de Janeiro. Editora Revan, 1999 (p. 177-178).

[11] VAROUFAKIS, Yanis. Tecnofeudalismo: o que matou o capitalismo? São Paulo: Editora   Crítica, 2025.

[12] https://newrepublic.com/post/197719/elon-musk-ai-chatbot-antisemitic-rhetoric

[13] https://newrepublic.com/post/195289/elon-musk-ai-chatbot-grok-white-genocide-south-africa