Esta pergunta, feita por Agostinho Ramalho Marques Neto[1], ainda que em contexto diverso, é a que devemos fazer ao nos deparar com a crescente onda de discussões sobre a regulamentação da inteligência artificial (IA). Enquanto a intenção de proteger a sociedade de possíveis abusos tecnológicos é nobre, devemos questionar quem são os guardiões dessa bondade e quais interesses estão realmente sendo protegidos. Neste artigo, exploraremos a necessidade e os perigos da regulação da IA no Brasil, com um foco especial na recente legislação da União Europeia.
A inteligência artificial tem se integrado rapidamente em diversas áreas da nossa vida, desde assistentes virtuais em nossos smartphones até carros autônomos e sistemas avançados de diagnóstico médico. No entanto, com esse avanço vêm preocupações legítimas sobre privacidade, segurança e ética. Recentemente, a União Europeia aprovou o AI Act[2], um conjunto de regras destinadas a regular o uso da IA classificando os sistemas de acordo com seus níveis de risco. Esta legislação visa criar um ambiente seguro e confiável para o desenvolvimento e uso da IA, mas também levanta questões sobre o equilíbrio entre inovação e controle.
A IA oferece inúmeros benefícios que podem transformar positivamente nossas vidas. Na educação, por exemplo, ferramentas de IA estão revolucionando o aprendizado ao criar materiais educativos interativos e adaptativos, como laboratórios virtuais, simulações e jogos educacionais[3]. Na indústria, a automação alimentada por IA aumenta a eficiência e reduz custos, permitindo que empresas se tornem mais competitivas. Por exemplo, a General Electric utiliza algoritmos de IA para analisar grandes conjuntos de dados históricos e atuais, prevendo problemas de equipamentos antes que ocorram falhas, o que maximiza a eficácia operacional e melhora a manutenção preditiva[4].
Apesar dos benefícios, a IA também apresenta riscos significativos que não podem ser ignorados. Algoritmos tendenciosos podem perpetuar discriminações existentes, enquanto sistemas autônomos mal projetados podem causar acidentes graves. A invasão de privacidade é outra preocupação, com tecnologias de reconhecimento facial sendo usadas sem consentimento em espaços públicos. Exemplos recentes, como falhas em sistemas de reconhecimento de voz e imagem, ilustram os perigos potenciais da IA desregulada[5]. Esses incidentes ressaltam a necessidade de um arcabouço regulatório robusto que possa mitigar esses riscos.
Para enfrentar os desafios apresentados pela IA, a regulamentação é essencial. O AI Act da União Europeia representa passo significativo nessa direção, impondo obrigações específicas para desenvolvedores e usuários de IA, dependendo do nível de risco associado. Os sistemas de IA são classificados em quatro categorias: risco inaceitável, alto risco, risco limitado e risco mínimo ou inexistente. Os sistemas de alto risco, por exemplo, são sujeitos a requisitos rigorosos, como gestão de riscos, governança de dados, documentação técnica, registro de logs e transparência para garantir a segurança e a proteção dos direitos fundamentais dos usuários[6].
O Mapa Interativo de Obrigações e das Categorias de Riscos (MIOCR) detalha essas obrigações, destacando a importância de uma abordagem diferenciada baseada no risco. O MIOCR é uma ferramenta detalhada que mapeia as obrigações impostas pela legislação e categoriza os riscos associados aos sistemas de IA. Este mapa é essencial para entender como diferentes níveis de risco exigem diferentes níveis de conformidade e obrigações, garantindo que as medidas regulatórias sejam proporcionais ao potencial impacto dos sistemas de IA.
Embora a regulação da IA seja necessária, devemos estar atentos aos perigos de uma regulamentação excessivamente zelosa. Reguladores, apesar de bem-intencionados, podem não ter a compreensão completa da tecnologia e suas implicações futuras. Isso pode levar a regras que sufocam a inovação e criam barreiras intransponíveis para startups e pequenas empresas. Além disso, existe o risco de que grandes empresas usem a regulamentação como uma vantagem competitiva, dificultando a entrada de novos concorrentes. A “bondade dos bons” pode, sem querer, proteger interesses estabelecidos à custa do progresso e da inovação.
Em última análise, a regulação da IA deve encontrar um equilíbrio delicado entre proteger a sociedade e promover a inovação. É crucial que as regras sejam flexíveis e adaptáveis, permitindo ajustes à medida que a tecnologia evolui. Reguladores devem trabalhar em estreita colaboração com desenvolvedores e especialistas em IA para garantir que as políticas sejam eficazes e proporcionais aos riscos.
Assim, convido todos os leitores a se envolverem no debate sobre a regulação da IA, seja participando de fóruns públicos, contribuindo para consultas governamentais, apoiando organizações que promovem a ética na IA, ou até mesmo se educando e educando outros sobre os impactos da IA.
Somente através do diálogo aberto e colaborativo entre governos, empresas e sociedade civil poderemos desenvolver uma abordagem equilibrada que maximize os benefícios da IA enquanto minimiza seus riscos.
A pergunta permanece: quem nos protegerá da bondade dos bons? A resposta reside em nossa capacidade coletiva de criar uma regulação que seja tão inteligente e adaptável quanto a tecnologia que buscamos controlar.
[1] MARQUES NETO, Agostinho Ramalho. O Poder Judiciário na Perspectiva da Sociedade Democrática: O Juiz Cidadão. In: Revista ANAMATRA. São Paulo, n. 21, p. 30-50, 1994.
[2] https://artificialintelligenceact.eu/
[3] https://www.eschoolnews.com/digital-learning/2024/02/05/benefits-of-artificial-intelligence-in-education/
[4] https://litslink.com/blog/ai-in-the-manufacturing-industry-benefits-use-cases-and-success-stories
[5] https://www.ndss-symposium.org/ndss-paper/practical-hidden-voice-attacks-against-speech-and-speaker-recognition-systems/
[6] https://artificialintelligenceact.eu/high-level-summary/