“Sem fatos, não é possível ter verdade. Sem verdade, não é possível ter confiança. Sem confiança, não temos uma realidade compartilhada, nem democracia, e torna-se impossível lidar com os problemas existenciais do nosso mundo”. A afirmação da jornalista Maria Ressa, ganhadora do prêmio Nobel da Paz em 2021, diz muito sobre os desafios para preservar a esfera pública em uma sociedade digitalizada.
As plataformas de mídia social e a inteligência artificial mudaram a forma como as informações são produzidas, comunicadas e distribuídas.[1] Como infraestruturas comunicativas de grande escala, as plataformas não são apenas mediadoras passivas de conteúdo produzido por terceiros, mas intervêm no fluxo de informações por meio do uso intensivo de algoritmos, que controlam a forma, o escopo e a priorização do conteúdo publicado pelos usuários[2]. Esse poder de curadoria determina a acessibilidade e a disponibilidade das informações e ocorre de forma pouco transparente: ainda que o usuário individual veja o está sendo recomendado, o resultado geral permanece opaco em um nível sistêmico.[3]
Se por um lado, esses novos espaços digitais ampliaram o acesso à informação e a possibilidade de expressão, por outro, ampliaram também a quantidade de informações não confiáveis e a desinformação, tornando-se pouco seguros para grupos vulneráveis.
Não bastasse o desafio de estabelecer uma governança mais democrática para as plataformas digitais, os desenvolvimentos da inteligência artificial, em especial da IA generativa, ampliaram problemas já existentes. Afinal, a geração de conteúdo por IA combinada com os efeitos de escala gerados pelos modelos de negócio das plataformas digitais possibilitam a amplificação dos conteúdos inautênticos, enganosos ou nocivos, aumentando os danos deles decorrentes. O presente artigo destaca, assim, três desafios da inteligência artificial aplicada à esfera pública, que estão interconectados e se reforçam mutuamente.
1) Identificação de conteúdo inautêntico e amplificação da circulação de deep fakes
Os grandes modelos linguagem (LLM – Large Language Models) são treinados em enormes conjuntos de dados e têm capacidade de gerar conteúdo, como por exemplo, o Bard e o ChatGPT, que podem de gerar textos e diálogos semelhantes aos dos humanos e o Dall-E e o Mid-Journey, aptos a gerar imagens bastante realistas. Esses mesmos sistemas podem ser usados para manipular conteúdos, produzir discursos e fotos enganosas, bem como desinformação de forma massificada.
Recentemente foi noticiado o caso de produção de “deep nudes“[4], imagens falsas de nudez produzidas por IA de alunas de uma escola do Rio de Janeiro, o que lhes causou grandes danos. As deep fakes são o produto de aplicações de inteligência artificial (IA) que buscam fundir, combinar, substituir e sobrepor imagens e videoclipes para criar vídeos falsos que parecem autênticos”[5]. O fator de mudança de jogo de deep fakes é o escopo, escala e sofisticação da tecnologia envolvida, isso é, o fato de que facilmente qualquer pessoa com um computador ou dispositivo conectado à internet consegue fabricar vídeos falsos que são praticamente indistinguíveis da mídia autêntica.
Por essas razões, a criação de detectores eficientes, capazes de identificar texto, imagem ou som produzido por IA é fundamental e tornou-se importante demanda para assegurar o uso responsável dessa tecnologia. Há autores que defendem, por exemplo, que sistemas de IA generativa somente sejam disponibilizados para o público quando desenvolverem sistemas de detecção confiáveis.[6]
As tecnologias de detecção de meios sintéticos rotulam os meios de comunicação como sintéticos ou não sintéticos e são cada vez mais utilizadas por jornalistas e pelo público em geral. Para além de sistemas de detecção, é fundamental investir em marcas d ‘água que possam ser resistentes a ataques humanos. Tão grave quanto a criação de deepfakes é seu o potencial de disseminação em escala por meio das plataformas, sendo fundamental o desenvolvimento de mecanismos de detecção, bem como de mitigação de danos decorrentes da disseminação de conteúdo nocivo ou inautêntico.
2) Situações de crise e risco para eleições
O segundo desafio diz respeito à disseminação de conteúdo inautêntico em situações de crise ou no contexto eleitoral, com o objetivo de causar danos ou violar a integridade do processo eleitoral. Tais usos podem afetar uma coletividade de cidadãos, trazendo graves consequências para a democracia.
Em reportagem do New York Times de 15 de novembro de 2023, denunciou-se o uso de imagens e vídeos de inteligência artificial produzidos pelas campanhas eleitorais dos dois candidatos durante o segundo turno presidencial na Argentina, Javier Milei e Sérgio Massa. As imagens, segundo a reportagem, foram vistas e acessadas por mais de 30 milhões de vezes.[7]
Essas situações de alto risco, exigem a criação de protocolos e procedimentos específicos a serem cumpridos pelas plataformas, que sejam capazes de controlar a conjuntura de crise ou que pelo menos não impliquem no seu agravamento.[8] A Unesco publicou recentemente as “Diretrizes para a governança das plataformas digitais”, na qual consta o dever das plataformas digitais de realizar avaliações dos direitos humanos e de riscos “antes (…) dos “processos eleitorais para proteger a sua integridade” e “em resposta a emergências, crises, conflitos ou alterações significativas no ambiente”. [9]
Nesse sentido, é fundamental que se estabeleçam protocolos de crise e avaliação de riscos sistêmicos, evitando que eles sejam amplificados em momentos de crise e acabem por agravar situações de vulnerabilidade.
3) IA generativa e moderação de conteúdo
A necessidade moderação nos chat bots que geram conteúdo, como o ChatGPT, é o terceiro desafio. Os novos marcos normativos de regulação de plataformas, como o Online Safety Act e o Digital Services Act, foram elaborados para aplicação aos intermediários que hospedam e gerenciam conteúdo produzido pelos usuários. Na Europa, argumenta-se que o escopo do DSA precisará ser expandido para abranger os grandes modelos de linguagem (LLMs), diante do risco de disseminação de conteúdo nocivo por esses sistemas. [10]
No Brasil, tem-se uma situação ainda mais grave: não se aprovaram normas sobre regulação de plataformas e estamos nos estágios iniciais desse debate. O Marco Civil da Internet, ao estabelecer como regra a contestabilidade da moderação de conteúdo apenas judicialmente, retirou os incentivos econômicos e jurídicos para uma moderação mais responsiva.[11] Dessa forma, faltam regras para moderação de conteúdo aplicáveis tanto às plataformas como aos sistemas de IA generativa.
4) Uma arquitetura normativa para a sociedade da informação
O tema aqui tratado é complexo e multifacetado, exigindo uma arquitetura institucional e normativa em desenvolvimento. Esse desafio levou às recentes legislações de regulação das plataformas, das quais são exemplos o Digital Services Act (DSA) europeu e o Online Safety Act (OSA), recém aprovado no Reino Unido. O PL 2630/2020 traz alguns dos temas relacionados à regulação de plataformas e está em tramitação na Câmara dos Deputados, sob relatoria do deputado Orlando Silva, mas a sua aprovação ainda é incerta.
Se a regulação das plataformas é urgente, a construção de um marco normativo de inteligência artificial também é essencial para garantir que o ciclo de vida da IA esteja submetido a regras de accountability, nos moldes do PL 2338/23, proposto pelo presidente do Senado, Rodrigo Pacheco, a partir do relatório da Comissão de Juristas do Senado Federal.[12] Fundamental ainda é a consolidação da Lei Geral de Proteção de Dados para coibir, por exemplo, práticas discriminatórias baseadas em tratamento de dados pessoais.
Outras entidades têm um papel relevante em determinados contextos, como é o caso do Tribunal do Superior Eleitoral (TSE), responsável pela garantia da integridade eleitoral, e o Conselho Administrativo de Defesa Econômica (Cade), cuja atuação tende a ganhar destaque no ambiente digital. Essas ações, que exigirão uma coordenação intergovernamental, são fundamentais para preservação da integridade democrática e a garantia da pluralidade do debate na esfera pública.[13]
[1] Rieder, B. & Hofmann, J. (2020). Towards platform observability. Internet Policy Review, 9(4). https://doi.org/10.14763/2020.4.1535
[2] Balkin, Jack M., Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation, Universidade da Califórnia, Davis, pp. 1149-1210, 2018.
[3] Leerssen, Paddy: Algorithm Centrism in the DSA’s Regulation of Recommender Systems, VerfBlog, 2022/3/29, https://verfassungsblog.de/roa-algorithm-centrism-in-the-das.
[4] Disponível em: https://www.estadao.com.br/educacao/nunca-vao-saber-o-trauma-que-causaram-diz-aluna-vitima-de-nudes-falsos-em-colegio-no-rio-nprm/. Acesso em: 15 nov. 2023.
[5] Maras, M. H., & Alexandrou, A. 2018. Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos. International Journal of Evidence & Proof, 23(3): 255–262. https://doi.org/10.1177/1365712718807226
[6] Vinu Sankar Sadasivan, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang, Soheil Feizi. Can AI- Generated Text be Reliably Detected? Disponível em: https://arxiv.org/abs/2303.11156
[7] https://www.nytimes.com/2023/11/15/world/americas/argentina-election-ai-milei-massa.html
[8] Cf Recomendação do Fórum de Informação de Democracia para garantir a integridade da informação em tempos de conflito: https://informationdemocracy.org/wp-content/uploads/2023/11/ID_Recommendations-in-Times-of-Conflict-_2023.pdf
[9] UNESCO, Guidelines for the Governance of Digital Platforms: Safeguarding freedom of expression and access to information through a multistakeholder approach. Cf: https://informationdemocracy.org/wp-content/uploads/2023/11/ID_Recommendations-in-Times-of-Conflict-_2023.pdf
[10] Hacker, Philipp, Engel, Andreas; List, Theresa: Understanding and Regulating ChatGPT, and Other Large Generative AI Models: With input from ChatGPT, VerfBlog, 2023/1/20, https://verfassungsblog.de/chatgpt/, DOI: 10.17176/20230120-220055-0.
[11] https://legis.senado.leg.br/comissoes/comissao?codcol=2504.
[12] Keller, Clara Iglesias, Mendes, Laura Schertel e Fernandes, Victor Oliveira. Moderação de conteúdo em plataformas digitais: caminhos para a regulação no Brasil. In: Cadernos Adenauer XXIV (2023), nº1 Cem dias de Lula III Rio de Janeiro: Fundação Konrad Adenauer, abril 2023, p. 67 e ss. Acessível em: https://www.kas.de/documents/265553/19294631/Ka+Cad+2023-1+web.pdf/c63e6216-6a9e-9017-f32c-1d72565189ba?t=1683831213969
[13] Gaetani, Francisco e Almeida, Virgilio, O G20 e a conexão de dados & IA. Acessível em: https://valor.globo.com/opiniao/coluna/o-g20-e-a-conexao-dados-ia.ghtml?li_source=LI&li_medium=news-multicontent-widget