Não teríamos acabado com escravidão usando IA para nos dizer o que fazer, diz professora

  • Categoria do post:JOTA

Na manhã desta quinta-feira (9/11), no auditório do IDP em Brasília, a professora Indra Spiecker genannt Döhmann, da Universidade Goethe (Alemanha), fez uma provocação à plateia que assistia ao “Seminário Internacional: Democracia e Direitos Fundamentais na Era Digital”. A palestrante questionou se a inteligência artificial seria um divisor de águas, em uma reflexão que desaguou em um alerta: “Não teríamos acabado com a escravidão se apenas tivéssemos usado uma IA para nos dizer o que fazer”.

Indra Spiecker, também diretora do centro de proteção de dados da universidade e editora de revistas da área, ilustrou a matéria sob dois aspectos. O primeiro: a inteligência artificial não é nova, “não acredite nisso.” Ela vem pelo menos dos anos de 1960. Com certeza, ganhou força nos anos de 1980, afirmou. O ChatGPT, com a tecnologia de IA generativa e o alcance de massa, é mais um passo nessa história.

Tenha acesso ao JOTA PRO Poder, uma plataforma de monitoramento político com informações de bastidores que oferece mais transparência e previsibilidade para empresas. Conheça!

Segundo, a inteligência artificial é um convite à média e ao passado. Colhe-se os dados disponíveis e aplica-se probabilidade e correlação. Significa que, se 80% das pessoas pensarem de alguma maneira, será aquilo que a IA fará. Mas, se só se enxerga o passado e imagina um futuro baseado em parâmetros pretéritos, não haverá “desenvolvimento, mudança, alteração”, apenas uma continuação.

“É claro que não queremos viver no século 18. Não teríamos acabado com a escravidão se apenas tivéssemos usado uma IA para nos dizer o que fazer e a IA tivesse aprendido que a escravidão era algo ruim. Nunca teríamos superado a discriminação contra as mulheres”, concluiu Spiecker, no Seminário Internacional: Democracia e Direitos Fundamentais na Era Digital, que é transmitido pelo JOTA e terá continuidade nesta sexta-feira (10/10).

A professora também criticou o modelo de negócios das grandes plataformas digitais. Afirmou que a escandalização, presente no modelo das plataformas, vai na direção contrária do “modelo de negócios” da democracia, mais ligada à ideia de concessão. Ela advogou em favor das instituições democráticas e de uma internet mais autêntica, neutra e responsável.

A palestra casou com a do presidente do Supremo Tribunal Federal (STF), ministro Luís Roberto Barroso. Ele disse que a democracia liberal foi a ideologia vitoriosa no século passado, porque simplesmente derrotou todas as alternativas que se apresentaram. Mas, no início deste, passamos por uma “recessão democrática”.

Barroso explicou que o populismo autoritário — visto na Polônia, Hungria, Nicarágua, Filipinas — costuma dividir a sociedade entre nós e eles e adotar uma postura antipluralista. E a estratégia usada por líderes autoritários passou em muitos países pelo uso das redes sociais.

Mas não só. As plataformas digitais foram responsáveis pelo que o ministro chamou de “tribalização da vida”, isto é, as pessoas encontram seus grupos em redes sociais e se acostumam a receber destas apenas conteúdos de seu interesse e que reforcem a sua opinião. Sem falar na crise da imprensa e do alastramento do fenômeno da desinformação.

“Precisamos fazer com que a mentira volte a ser errado outra vez”, ressaltou o ministro. “Voltar ao tempo em que as pessoas discordavam e podiam sentar na mesma mesa”.

Regulação

Os debatedores do painel posterior, “Regulação de redes e plataformas: o debate legislativo brasileiro”, focaram na responsabilização das empresas por eventuais violações cometidas tanto por elas próprias quanto por usuários.

O deputado federal Orlando Silva, relator do Projeto de Lei 2630/2020, para instituir a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, defendeu o aprimoramento do Marco Civil da Internet (Lei 12.965/2014), especialmente em relação ao artigo 19, que impõe condições para a responsabilização civil das plataformas.

“É inescapável que venhamos a dar passos avançando sobre o artigo 19. Não vejo inconstitucionalidade no artigo 19, mas eu consigo ver insuficiências na previsão do Marco Civil da Internet no que diz respeito a responsabilidade. É sobre isso que me interessa debater o regime de responsabilidade dessas empresas – se é solidária, se subsidiária. O que penso é que temos a necessidade de estabelecermos um novo regime de responsabilidades quando causado danos para usuários”.

Silva afirmou que a moderação de conteúdo é um “dever” das redes e plataformas, mas, para que existam regras eficazes, é preciso, antes de tudo, que se pense em mecanismos para proteger o direito fundamental à liberdade de expressão.

“Um dos principais direitos fundamentais que precisamos exercitar no uso de serviços digitais diz respeito à liberdade de expressão, um direito extraordinário fundamental para democracia. O exercício desse direito, para ser pleno, tem que observar que, quando houver moderação de conteúdo, o usuário tem que ter direito de contestar essa moderação. Hoje, não há mecanismos do chamado devido processo, para que o usuário exerça a defesa da sua liberdade de expressão diante de uma moderação inadequada. É importante prevermos isso na lei”, salientou.

O deputado também falou sobre a necessidade de participação efetiva de um órgão regulador. “Diferentemente de alguns que imaginam que há um risco de emergir um Ministério da Verdade no Planalto Central brasileiro, o que se pretende é que haja mecanismos de supervisão e fiscalização para o cumprimento da lei. A esse órgão não caberá avaliação de conteúdo. Isso seguirá sendo feito pelas plataformas. O desafio é pôr de pé um sistema que tenha um órgão do Estado para fiscalizar, mas que estimule a autorregulação”.

Para Chico Cruz, diretor-executivo do InternetLab, o grande desafio da moderação de conteúdo é logístico. “Quantos posts o Facebook recebe por dia? Quantos vídeos o YouTube recebe por dia? É possível, viável, desejável que a moderação seja feita sem nenhum tipo de automação? Imagino que não. É desejável que só seja feito com automação? Também acho que não. A tarefa é, então, de desenhar um sistema, quase que uma engenharia, de como aplicar essas regras em uma enorme escala”.

Segundo Cruz, é fundamental o papel do crivo judicial para que conteúdos legítimos não sejam excluídos arbitrariamente. No entanto, falta consolidação de jurisprudência em relação ao tema.

“Falta, no Brasil, elementos para decidir casos concretos de liberdade de expressão. Quando algo vai para o Judiciário para remoção, a gente não sabe se vai cair ou não. Se o Judiciário não sabe, como as plataformas vão saber se é ilegal ou não? Precisamos construir arranjos para isso”, diz o diretor do InternetLab.

Flávia Lefreve, advogada e ex-conselheira do CGI.br, também reforçou a importância de balancear a responsabilização a fim de não comprometer o direito à liberdade de expressão.

“Apesar das características e dos riscos que essas plataformas nos trazem, é por meio delas que temos conseguido nos mobilizar, exercer nosso direito de liberdade expressão, o direito à informação, entre outros direitos fundamentais. Então temos que regular, temos que obter transparência, temos que impor responsabilidade, mas temos também que sopesar até que ponto não vamos inviabilizar o direito de liberdade de expressão”.

LGPD

Os avanços e lacunas da Lei Geral de Proteção de Dados Pessoais (LGPD) foram tema do painel “Proteção de dados pessoais: um balanço dos 5 anos da LGPD”.

Para Ingo Sarlet, professor da PUC-RS, a constitucionalização do direito de proteção de dados pessoais foi base importante para preservar os cidadãos, mas ainda há que se avançar.

“Esse direito passou a ser uma espécie de diretriz, de amálgama do próprio sistema de proteção dos dados pessoais que nós temos no Brasil. Com esse patamar constitucional, agora temos a possibilidade e o dever dos agentes de públicos, não só de proteção desse direito, mas de interpretação sistemática e harmonizada dessa legislação à luz desse direito fundamental, até porque nós ainda temos muitas lacunas de proteção”.

Ana Paula Bialer, do Conselho Nacional de Proteção de Dados (CNPD), defendeu ajustes da LGPD em relação a outros elementos do ordenamento jurídico brasileiro. “A LGPD não existe sozinha no nosso ordenamento jurídico. Temos muitos desafios de compatibilização da LGPD com o resto do nosso ordenamento, que são importantes para uma efetiva implementação”.

De acordo com Bialer, o efetivo funcionamento da LGPD passa pela educação da sociedade em geral em relação aos dados pessoais. “É muito natural olharmos para a LGPD e termos a preocupação de como as big techs utilizam os dados, mas a gente não pode esquecer que a LGPD se aplica a todo mundo – à farmácia da esquina, à boutique que pega seu telefone para te avisar sobre uma promoção, ao poder público”, comenta. “Temos que começar antes como sociedade, não como um Estado punindo pela aplicação da LGPD”, complementa.

Na mesma linha, Fabrício da Mota Alves, também do CNPD, pediu um olhar mais atento a políticas de comunicação sobre a proteção de dados. “Sinto uma necessidade premente na sociedade brasileira de uma campanha de Estado no que diz respeito aos valores de proteção de dados. É um direito fundamental, consagrado na Constituição. Eu me sentiria muito satisfeito, como cidadão que sou e nas posições que ocupo, se houvesse um ambiente de política de comunicação social mais forte. Isso não deve ser promovido exclusivamente pela ANPD [Autoridade Nacional de Proteção de Dados], mas pelo Estado brasileiro. Não só o governo federal, mas o Legislativo e até o Judiciário, uma vez que todos estão inseridos no sistema regulatório”.