Estamos criando uma sociedade de pessoas que acham que sabem tudo, diz Cármen Lúcia

  • Categoria do post:JOTA

A ministra Cármen Lúcia, do Supremo Tribunal Federal (STF), demonstrou preocupação com os rumos do que classificou como “datademocracia”, a democracia dos dados, da informação.

Durante o Seminário Internacional: Democracia e Direitos Fundamentais na Era Digital, promovido nesta sexta-feira (10/11) pelo Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), em Brasília, a ministra disse que, embora as novas tecnologias digitais tenham gerado inúmeros benefícios, têm fomentado a desconfiança da população nas instituições democráticas.

Tenha acesso ao JOTA PRO Poder, uma plataforma de monitoramento político com informações de bastidores que oferece mais transparência e previsibilidade para empresas. Conheça!

“O que é grave, que nós estamos vivendo nos últimos 35 anos, é que o acesso mais fácil a dados e a informações, que também abriu espaço para desinformação, não fomentou nem fortaleceu a confiança nos sistemas. Não é só aqui que se questiona o STF ou políticos, em geral. E essa confiança jurídica é a base de uma democracia estável e sólida.”

Cármen Lúcia também destacou que as novas redes – especialmente os smartphones – têm adoecido a população e tornado as pessoas mais solitárias e egoístas.

“Estamos criando uma sociedade de ‘eus tiranos’. As pessoas acham que sabem tudo porque viram em uma telinha de WhatsApp que tal fato é verdade. Essa é uma sociedade que não suporta a democracia e não consegue realizar a própria humanidade”, criticou.

De acordo com a ministra, é evidente que ferramentas tecnológicas agregaram conhecimento à população – ela citou o benefício do fácil acesso ao texto da Constituição, hoje em dia -, mas que, para que não se perca a humanidade, é preciso aliar sentimento à construção comunicacional.

“Ao lado dessa sociedade do conhecimento, de dados, é preciso se somar uma sociedade do sentimento, porque senão eu igualo máquinas e seres humanos. A sociedade de conhecimento com sentimento é o que faz com que nós, humanos, sejamos capazes de construir nossas instituições, de elaborar os nossos institutos de acordo com as nossas necessidades, para a gente ser o que a gente quiser ser, segundo a vocação de cada um e de forma livre”, declarou.

Soberania digital

O painel de abertura desta sexta-feira, realizado durante a manhã, teve como tema “Soberania tecnológica: dados, infraestrutura e desenvolvimento econômico”.

Alessandro Mantelero, professor de Direito Privado e Direito e Tecnologia na Universidade Politécnica de Torino, ressaltou que é preciso encontrar o equilíbrio entre a regulação e a abertura para o desenvolvimento das plataformas.

“Como na primeira revolução industrial, na regulação digital precisamos encontrar equilíbrio para levar o risco em consideração e deixar espaço para diversas possibilidades que nos apresentam”, disse. “Se a gente não regular a tecnologia, ela vai fazer isso por si mesma. Então temos que definir os padrões nas plataformas”, complementou.

Segundo o professor, os produtos de tecnologia, como as ferramentas de inteligência artificial generativa (Chat GPT, por exemplo), devem ser pensadas localmente, encaixando-se ao contexto específico de cada país.

“O cidadão deve pedir produtos específicos para esse contexto. O Brasil não é os Estados Unidos ou a China. A diferença cultural e de valores deve ser parte dos produtos que são disseminados. É importante a contextualização, a participação e a avaliação do acesso”.

Mantelero afirmou que, quando se concentra o desenvolvimento de inteligência artificial nas mãos de poucas empresas, notadamente dos Estados Unidos, cria-se um grande risco de que o comportamento social global seja ditado por poucas pessoas.

“Com essas ferramentas, estamos redesenhando nossa mente com base no que a inteligência artificial sugere sobre qual é a melhor solução, as melhores decisões. Só que quem desenhou a IA? Qual é a forma como esses caras veem o mundo, os parâmetros principais em termos de valores? Ou seja, a sua mente está desenhada pelo designer do IA. O risco, portanto, não é de receber uma informação errada, mas sim a abordagem imperialista sobre os valores que impulsionam nosso comportamento social”.

Luca Belli, professor pesquisador da FGV Direito Rio e Coordenador do Centro de Tecnologia e Sociedade (CTS-FGV), afirmou que a soberania digital passa, essencialmente, pelo desenvolvimento de ferramentas de proteção de dados.

“Os BRICS estão desenvolvendo ferramentas de cibersegurança também para construir sua própria soberania digital, porque se tornou evidente, com as revelações do [Edward] Snowden, por exemplo, que a tecnologia digital é excelente para o empoderamento, mas pode também pode ser utilizada para espionagem e para manipulação.”

Clara Iglesias Keller, professora e pesquisadora do Weizenbaum Institute, em Berlim, na Alemanha, defendeu que a construção de um soberania digital deve ser feita “de baixo para cima”, com participação popular efetiva.

“Temos que pensar a soberania digital no sentido da soberania popular, com o fomento de soluções tecnológicas de cima para baixo, não impostas por um poder concentrado, mas elaboradas em sociedade, em comunidades, que rompem com relações de interdependência dos poderes concentrados e promovem os interesses, a inovação social e a inovação tecnologia de populações específicas”, disse. “Soberania também é dar direitos. Precisamos regular riscos, isso é válido, mas temos a necessidade de regular direitos quando vamos regular IA”, acrescentou.

Regulação da IA no Brasil

“Regulação da inteligência artificial no Brasil: conceitos, riscos e responsabilidades” foi o tema do segundo painel do dia, com participação do senador Eduardo Gomes (PL-TO), relator do PL 2.338/2023, que institui o marco da inteligência artificial no país.

Segundo ele, os debates no Legislativo estão avançados para que o texto vire lei. “A gente pretende, nos próximos dias, resolver a primeira versão do relatório final no Senado, para que a gente fiquei só com as divergências e consiga emplacar as convergências. A gente sabe que tem que ser uma lei viva, que não tire a capacidade de inovação e investimento, mas que também dê uma certa segurança ou uma clareza”, declarou.

O parlamentar afirmou que, para além da criação de novas leis, é primordial que se faça cumprir a legislação já existe no país. “Temos um problema de ego muito sério na legislação brasileira, de insistir e tentar uma nova lei para uma lei que já existe, que só precisa cumprida”.

Fazendo referência à música “Pra rua me levar”, de Ana Carolina, o senador resumiu: “Nem se precipitar, nem perder a hora. Esse tem que ser o tratamento para a inteligência artificial no Brasil”.