Há algum tempo, falamos nesta coluna sobre a regulação de big techs no país[1]. A dúvida formada à época residia em como as autoridades brasileiras, à luz dos exemplos internacionais, deveriam abordar a dominância dessas empresas de maneira eficaz e equilibrada, garantindo ao mesmo tempo a concorrência, a inovação e a segurança dos regulados.
De lá para cá, embora essa indagação não tenha sido respondida, novas dúvidas sobre o mundo virtual surgiram. Afinal, a tecnologia não caminha no mesmo ritmo da humanidade; menos ainda na cadência do mundo jurídico.
Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email
A verdade é que se nem nós, enquanto seres humanos em nossas vidas pessoais, conseguimos acompanhar pari passu a última atualização, a última funcionalidade ou até mesmo a última falha que esses super sistemas experienciam, imagine a construção jurídica que uma regulamentação à inteligência artificial requer: ao mesmo tempo que estará lá posta, em letras estanques, deve ser maleável o suficiente para se regenerar na medida das inovações. Provavelmente não é uma tarefa fácil.
Seja como for, independentemente de se ter respondido, no momento, se é necessário regular ou, tal como a própria tecnologia se descreve, se essa necessidade é auto generativa, o Parlamento Europeu aprovou, em março deste ano, a Lei da IA, com texto publicado no Jornal Oficial da União Europeia em 12 de julho de 2024[2].
A lei terá 24 meses após a sua entrada em vigor para aplicação, mas algumas disposições podem ser utilizadas antecipadamente, como a proibição de sistemas de IA que apresentem riscos inaceitáveis e regras sobre sistemas de IA de uso geral que precisam cumprir os requisitos de transparência[3], o que já foi medida suficiente para algumas big techs deixarem de lançar os seus novos produtos no velho continente[4].
A União Europeia, geralmente na vanguarda dessas inovações legais, pautou a inteligência artificial, então, na obediência a sete requisitos fundamentais: iniciativa e controle por humanos; robustez e segurança; privacidade e governação de dados; transparência; diversidade, não-discriminação e equidade; bem-estar societal e ambiental; e responsabilização.
Sob esses vieses, distribuídos em mais de 100 artigos, a nova regulação, não a única no mundo, mas certamente a mais abrangente, traz definições, avaliações, proibições, penalidades e a graduação em níveis de risco que cada IA pode sujeitar os seus usuários.
Guardadas as devidas proporções, esse movimento é exatamente o que o Brasil pretende fazer com o PL 2338, que atualmente avança o seu texto no Senado.
É inegável que a regulamentação europeia, que, como dito, não é a única no mundo, mas a primeira a ser tão ampla, muito provavelmente servirá de base para o nosso país. Na experiência pregressa, o Brasil praticamente importou a LGPD da Europa[5], o que nos tendencia a achar que, em algum prazo, essas medidas do continente europeu terão certo efeito por aqui.
Atualmente, o projeto de lei segue no espectro dos debates, mas não é cedo demais para questionar se precisamos de uma legislação tão ampla quanto a da União Europeia ou se, ao revés, basta que criemos regulações esparsas dentro das normas já existentes.
Também não é demais alertar que o avanço constante e insistente da IA representa uma terceira onda de modernidade com a qual ainda não sabemos aonde chegar.
Quanto mais regulação, menos inovação? Quem defende uma maior liberdade, afirma que sim. Por outro lado, há quem diga que as oportunidades da IA são tão vastas quanto os seus riscos, e a regulamentação viria justamente para os mitigar.
Concretamente falando, no viés de quem critica e entende ser necessário regulamentar, a preocupação está no comportamento um tanto quanto tendencioso que as inteligências artificiais, treinadas para agirem como humanos (tendenciosos que são), podem ter. A possibilidade de haver injustiças quanto à parcialidade de cor e gênero não são meras circunstâncias hipotéticas, mas notícias de fatos que já ocorreram na vida real[6].
O meio-termo, como sempre, parece a saída mais apropriada. Mas como encontrar o consenso? Esse é mais um questionamento que se acumula na extensa lista de modernidades – ainda – não abarcadas pelo nosso ordenamento jurídico.
Na falta de respostas, a pergunta sobre a regulamentação é feita à própria IA:
> Prompt: É possível regular a inteligência artificial?
> Resposta: Sim, é possível regular a inteligência artificial (IA), e muitos países e organizações já estão criando legislações e diretrizes para isso.
A Machine Learning afirma que sim, mas se haverá resposta (humana!) para a IA em um futuro recente no Brasil, embora já possamos ter um palpite ou outro, não sabemos exatamente, mas certamente voltaremos com novas indagações assim que isso ocorrer.
[1] https://www.jota.info/opiniao-e-analise/colunas/elas-no-jota/big-techs-na-mira-da-justica
[2] JO L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
[3]https://www.europarl.europa.eu/pdfs/news/expert/2023/6/story/20230601STO93804/20230601STO93804_pt.pdf
[4]https://www.bloomberg.com/news/articles/2024-08-27/silicon-valley-protests-europe-s-tech-rules-by-delaying-ai-products
[5]https://www.serpro.gov.br/lgpd/noticias/lgpd-versao-brasileira-gdpr-dados-pessoais?utm_source=the%20news&utm_medium=newsletter&utm_campaign=19_06&_bhlid=ee9860ff1d6aa5d7fd5b2ee41eb5f28e07218a10
[6] https://gizmodo.uol.com.br/policia-prende-homem-negro-reconhecimento-errado/