Moratória para IA e o dilema de Collingridge

  • Categoria do post:JOTA

O surpreendente avanço da inteligência artificial nos últimos anos tem marcado o cenário das inovações tecnológicas de forma particularmente divisiva. Atualmente, ferramentas como o ChatGPT (da Open AI), o Gemini (da Google) e o recente DeepSeek (da High-Flyer) alcançam cada vez maior inserção no cotidiano dos usuários e de diversos setores da economia pelo mundo.

Lembre-se, aliás, que o último exemplo, o DeepSeek, de propriedade chinesa, desafiou as grandes empresas de tecnologia norte-americanas por seu baixo custo de desenvolvimento em comparação às concorrentes, bem como ganhou rápida popularidade e causou alvoroço no mercado de ações das big techs.

Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA

A corrida geopolítica em busca do domínio da tecnologia é evidente. Diante disso, barreiras legais e administrativas que estabeleçam limites às empresas que atuam no setor, geralmente, não são recebidas com bons olhos. Limitações excessivas podem significar, na visão de muitos, um empecilho para projetos ousados. Como não existe vácuo de poder, ficar para trás é um risco constante.

É nesse contexto acirrado que o Poder Legislativo dos EUA discute uma moratória de 10 anos que bane legislações estaduais de regular a IA, como parte do One Big, Beautiful Bill, do governo Donald Trump. A proposta já passou pela Câmara dos Representantes e segue para o Senado. Trata-se de uma das ações federais mais expressivas para fomentar a indústria tecnológica e, certamente, terá impactos por todo o mundo, uma vez que a nação norte-americana é berço das maiores empresas do ramo atualmente.

Por um lado, muitos defensores da proposta apontam a necessidade de que haja, primeiro, um parâmetro federal sobre a regulação da IA, para evitar a formação de uma “colcha de retalhos” de leis estaduais que estabelecem regras diversas e, por vezes, dissonantes.

Isso dificulta, por exemplo, o trabalho de grandes empresas que, nesse cenário, precisariam adaptar sua atuação a cada lugar onde operam, de forma fragmentada e com altos gastos em recursos financeiros e humanos. Ademais, esse lapso temporal pode ser necessário para observar o desenvolvimento da tecnologia, quais os benefícios e os problemas que aparecem, antes de propor uma regulação mais ampla e efetiva.

Todavia, a preocupação com os danos que a IA pode causar já acende alertas. Quem se opõe à proposta assevera que a moratória abre caminho para o desenvolvimento descontrolado de sistemas e modelos de tomada de decisão automática baseados em IA, sem freios éticos e pouca proteção a direitos de usuários e consumidores.

Apesar do curto espaço de tempo desde a difusão de ferramentas de IA, já são notáveis os seus impactos na sociedade. Com a facilidade na criação e na propagação de deep fakes, fake news e material ilícito, grupos vulneráveis ficariam ainda mais expostos a abusos, além dos procedimentos constitucionais afetados, como eleições.

Assim, alguns dos maiores dilemas da atualidade no que diz respeito à regulação das tecnologias e, em especial, à regulação da IA, são justamente quando e como regular. Esse contexto traz à análise um paradoxo desenvolvido nos anos 1980, analisado a seguir.

O desafio de regular tecnologias e o dilema de Collingridge

No livro The Social Control of Technology, publicado em 1980, David Collingridge teorizou o chamado “dilema do controle”, que ficou conhecido como “dilema de Collingridge” em alusão ao seu idealizador. Nas palavras do autor, em tradução livre:

“O dilema do controle pode ser resumido agora: tentar controlar uma tecnologia é difícil, e não raramente impossível, porque durante seus estágios iniciais, quando ela pode ser controlada, não se sabe o suficiente sobre suas consequências sociais prejudiciais para justificar o controle de seu desenvolvimento; mas quando essas consequências se tornam aparentes, o controle se torna custoso e lento”.

Inspirado em programas de desenvolvimento tecnológico bem-sucedidos como o Projeto Manhattan (que produziu as primeiras bombas atômicas no contexto da Segunda Guerra Mundial) e a microeletrônica, Collingridge questiona se podemos controlar a tecnologia e quando é necessário fazê-lo, garantindo que se possa extrair os melhores resultados sociais do progresso, além de evitar consequências indesejáveis.

O dilema enfatiza o aspecto temporal. Quando regular é um dos maiores desafios ao lidar com inovações em grande escala. A dinâmica trazida pela IA adiciona, ainda, o fator da rapidez das mudanças, em velocidade incompatível como a reflexão e o diálogo necessários (embora intrinsecamente lentos) para firmar arcabouços normativos e regulatórios eficientes e justos.

Se uma regulação for imposta cedo demais, corre-se o risco de estancar o desenvolvimento, ao impedir que aspectos considerados arriscados avancem, em uma postura demasiadamente preventiva. No cenário oposto, caso o alicerce regulatório seja tardio ou pusilânime, as disposições podem encarar um cenário de altos custos para execução e lentidão nos processos, diante do estágio avançado da tecnologia e da variedade de problemas sociais que já terá causado.

Assim, a intervenção regulatória é uma tarefa complexa e difícil, sendo necessário cautela, sem olvidar, minimamente, da segurança dos usuários e da defesa de direitos, imperiosos na era digital. Em relação à IA, o contexto não é diferente e exige atitudes e iniciativas criativas, que atendam a aspectos setoriais, nacionais e econômicos, a fim de promover o potencial desta área em ascensão.

O exemplo em análise, da moratória nos EUA, traz o dilema de Collingridge imediatamente à lembrança. No caso norte-americano, a opção legislativa busca viabilizar o desenvolvimento da IA sem amarras administrativas e/ou jurídicas que possam obstar o setor. Isto pois, de certa forma, é possível dizer que o mundo vislumbra os estágios iniciais das oportunidades advindas da IA, sendo que uma visão mais abrangente de seus efeitos só seria melhor averiguada após o decorrer de um período razoável.

Ocorre que, mesmo diante de pouco tempo desde a adoção e comercialização em maior escala dos sistemas e modelos de IA, é evidente que os impactos sociais dessa tecnologia já podem ser sentidos. Governantes, legisladores e sociedade civil têm visto clamores por respostas que estabeleçam limites e regulem a IA, ainda mais em face da ascensão de grandes empresas de tecnologia, cada vez mais poderosas no cenário contemporâneo.

O caso brasileiro

Como em todo o mundo, o Brasil tem visto a crescente inserção da IA no cotidiano dos cidadãos. Em pesquisa divulgada pela Ipsos, foi revelado que o Brasil figura entre os países que mais usam ferramentas de IA, sendo que mais da metade (54%) dos brasileiros afirmam utilizar IA generativa (para criação de textos e imagens, por exemplo), acima da média global (que foi de 48%). Ademais, a maioria dos brasileiros acredita que a tecnologia tem impacto em diversos setores e que seus benefícios superam os riscos.

Entretanto, em meio ao aumento vertiginoso de denúncias que relatam violações perpetradas com o uso de ferramentas de IA, aumenta-se a preocupação com os resultados da tecnologia, que tem afetado direito individuais, grupos minoritários e até mesmo eleições.

Para fazer frente a essa nova realidade, surgem iniciativas legislativas, a exemplo do PL 2338, de 2023, que dispõe sobre o uso da inteligência artificial, em tramitação no Parlamento brasileiro, em âmbito federal. Com o objetivo de firmar uma normativa nacional para o tema, o PL parece ficar estagnado enquanto diversos estados da federação tomam a frente e mobilizam esforços para lidar com essas novas ferramentas.

De fato, em nível estadual, os entes federativos brasileiros têm sancionado leis que buscam definir parâmetros do uso da IA em seus territórios, com implicações para a Administração Pública, proteção de dados pessoais, infraestrutura digital e impactos sociais, bem como econômicos. Nesse contexto, tem-se o exemplo de Goiás, que recentemente aprovou a Lei Complementar 205/2025, que “institui a Política Estadual de Fomento à Inovação em Inteligência Artificial”.

O Paraná também elaborou a Lei 22.343/2025, a qual “dispõe sobre a regulamentação do uso da Inteligência Artificial”. Já no Ceará, a Assembleia Legislativa propôs a criação de uma “Frente Inteligência Artificial com Direitos Sociais”, a fim de articular debates com diversos setores para lidar com os avanços dessa tecnologia.

Ademais, o Piauí empenha esforços para adotar a IA como uma verdadeira política de governança. Na mesma esteira, o Rio Grande do Sul lançou estratégia para ampliar o uso da IA pelo governo estadual.

Como ressaltado em artigo já publicado pelo JOTA, a dinâmica do federalismo brasileiro, estruturada na Constituição Federal de 1988, ordena que sejam feitos esforços cooperativos para a devida regulação da IA. Isto pois, segundo o art. 23, V, do texto constitucional, é competência comum da União, dos Estados, do Distrito Federal e dos Municípios proporcionar os meios de acesso à cultura, à educação, à ciência, à tecnologia, à pesquisa e à inovação.

A despeito dos possíveis conflitos federativos, o caso brasileiro, como no cenário nos EUA, reflete o surgimento de normativas diversas a nível estadual, enquanto não surge um estatuto em âmbito federal. Na nação norte-americana, a medida mais assertiva da moratória de 10 anos almeja evitar posições dissonantes e proporcionar um terreno fértil para o desenvolvimento da IA.

Os possíveis riscos, todavia, são imensuráveis. Esse panorama reforça a relevância do dilema de Collingridge, acima analisado, para que as regulações possam considerar aspectos múltiplos e não caiam em armadilhas da impulsividade e da fragmentação decisória, mas saibam lidar com elas. O momento de regulamentar a IA não pode prescindir, sobretudo, de proteções jurídicas mínimas para os destinatários mais vulneráveis: os usuários das tecnologias emergentes.