1. A filosofia da tecnologia
Em uma obra hoje considerada clássica na filosofia da tecnologia, Princípio Responsabilidade (1979), o pensador alemão Hans Jonas argumentou que, em razão da autonomização das forças tecnológicas e do progresso técnico das ciências, toda reflexão ética deveria ser repensada para além dos seus cânones tradicionais. O caráter incansável das ciências nos ofereceu avanços extraordinários em física nuclear, biologia genética, engenharia industrial e ciência da computação. Ao mesmo tempo, nos trouxe riscos extraordinários como acidentes nucleares, programação genética, desastres ambientais e inteligência artificial.
Em uma consistente argumentação sobre a civilização tecnológica, Jonas tratou das ameaças à essência do caráter humano e propôs um renovado debate sobre nossas responsabilidades diante das gerações futuras. Sua “ética da tecnologia” é um chamado ao debate sobre liberdades e algum tipo de controle humano sobre este processo. Não é sem razão que Hans Jonas é considerado o principal filósofo da ética da precaução. Em sua obra, encontramos um convite à ação, e não uma mensagem de paralisia ou medo. Ao pensarmos seriamente pela ótica da precaução, devemos imaginar os piores cenários possíveis, de modo a antecipar ações humanas capazes de evitar tais cenários. Escrevendo no final da década de 1970, Jonas defendeu que os conhecimentos incipientes sobre “tendências de perigos tecnológicos” deveriam ser desenvolvidos, coordenados, sistematizados, com força total de técnicas de projeção auxiliadas por computadores.
Hans Jonas estava plenamente ciente das discussões sobre inteligência artificial em seu tempo. Computer Power and Human Reason, de Joseph Weizenbaum, havia sido publicado três anos antes. Neste belíssimo livro deste cientista da computação – infelizmente ainda muito pouco lido no Brasil –, discute-se a diferença entre cálculo e julgamento e a importância dos fatores não matemáticos, como as emoções, na formação da compaixão e sabedoria.
É famosa a tese de Weizenbaum de que decisões cruciais que moldam nossa sociedade não possam ser delegadas às inteligências artificiais, dadas as diferenças substanciais entre homens e máquinas enquanto sistemas de processamento de informação e o papel do conhecimento tácito, que é construído socialmente e afetivamente. Os computadores podem ser maravilhosos para atingir objetivos da aviação civil, por exemplo. Mas Weizenbaum questionava: que conhecimentos e finalidades humanas não podem ser delegadas apropriadamente para os computadores?
Tanto em Jonas quanto em Weizenbaum há uma primazia da humanidade. É nossa responsabilidade, com as gerações futuras, garantir a permanência do que nos torna humanos. Isso envolve tanto uma ética da responsabilidade quanto uma demarcação mais clara daquilo que não é apropriado em termos de automação.
2. A Inteligência Artificial Benéfica
Encontramos em Stuart Russell alguns elementos da filosofia da tecnologia de Jonas e Weizenbaum. Russell, que é um dos mais renomados cientistas da computação hoje, é o líder de um movimento chamado por muitos de “IA benéfica”.
Este movimento busca mobilizar toda a comunidade científica para pensar, de “forma esperta”, como a inteligência humana pode direcionar a pesquisa em IA para o benefício da humanidade. Pergunte ao ChatGPT quais as principais ideais deste movimento e a resposta será o princípio de alinhamento (alinhar os objetivos da IA com valores humanos), evitar riscos existenciais, o aprendizado reforçado com suficiência (garantir que máquinas tenham objetivos bem definidos e que eles sejam consistentes com valores humanos) e a rejeição da maximização de objetivos absolutos (a IA deve ser projetada para agir de modo a maximizar a realização de objetivos humanos, levando em consideração a incerteza inerente aos desejos humanos).
No best-seller do cientista sueco Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence (2017), Russell é citado como liderança intelectual de uma agenda de pesquisas que busca reorientar o campo de IA. Ao invés de construir sistemas para otimizar objetivos arbitrários, “nós precisamos aprender como construir sistemas que irão, de fato, ser demonstravelmente benéficas para nós”, escreveu Russell em Provably Beneficial Artificial Intelligence.
Russell tem argumentado, há muitos anos, que os grandes progressos técnicos na ciência de IA precisam ser acompanhados de novas abordagens científicas para alinhamento dos valores humanos com as IAs. O risco de máquinas que possam “pensar de forma mais inteligente que nós”, nas palavras de Alan Turing, é antigo. O quebra-cabeças de como atribuir valores humanos em “agenciamentos mecânicos” também é complexo. Como bem lembra Russell, o matemático Norbert Wiener havia alertado em 1960, nos laboratórios do MIT, sobre os riscos de incluirmos nas máquinas objetivos imperfeitamente alinhados com os nossos, especialmente em “operações que não possamos interferir efetivamente”.
As teorias sobre controle (advindas da cibernética), as ciências estatísticas e as teorias de probabilidade pouco têm a oferecer para o problema do alinhamento com valores humanos, diz Stuart Russell. Por isso, ele tem defendido uma espécie de guinada no campo científico. Seu alerta aos cientistas da computação é: por favor, se esforcem em “prevenir consequências negativas de sistemas pobremente desenhados”.
Além do esforço científico em abordagens precaucionárias, três princípios podem ser considerados ao falarmos de usos benéficos das IAs. Primeiro, que os objetivos das IAs devem ser maximizar valores humanos. Segundo, que as IAs são inicialmente incertas sobre no que consistem tais valores humanos (e haverá sempre incompletude). Terceiro, IAs podem aprender sobre valores humanos ao observar as escolhas que humanos fazem. É preciso, portanto, um desenho institucional que favoreça o florescimento de usos de IAs benéficos, como nos campos da educação e da saúde, nos quais os potenciais de usos de IAs são incríveis.
Sem precisar entrar nos detalhes técnicos de como operacionalizar a adoção desses princípios – o que Russell chama de framework of cooperative inverse reinforcement learning –, a tese principal de Russell é que a concepção dessa função de utilidade (o número que representa a desejabilidade de um ser em um estado particular na ciência da computação) precisa estar mais bem alinhada com valores humanos. Isso é um empreendimento científico e envolve um compromisso ativo de desenvolver IAs benéficas, considerando que a otimização de sistemas para seus próprios objetivos pode levar a resultados muito ruins para todos nós. Por exemplo, sistemas que buscam apenas a otimização de cliques e fluxos de atenção, sem levar em consideração a qualidade de um conteúdo informativo, levam a cenários prejudiciais de prevalência de notícias sensacionalistas, conteúdos chocantes, clickbaits e um ecossistema informacional corrompido por informações enganosas que não estão alinhadas à qualidade informativa e o bem-estar das pessoas.
3. A regulação da IA no Brasil
Além de ser um compromisso ético, o direito passa a ter um papel central de procedimentalização da avaliação de risco nos usos de sistemas de IA, fazendo com que existam obrigações positivas de um design de sistemas orientado aos impactos humanos e um alinhamento entre tais valores humanos e as dinâmicas de funcionamento das técnicas mais avançadas de aprendizado por máquinas. O direito exige a demonstração de cuidados, precauções e intencionalidades. Não se trata mais de experiências de laboratórios do MIT. Há uma utilização massiva, em larga escala e de natureza comercial, que modifica toda a sociabilidade. Eis o desafio jurídico: como o direito pode auxiliar em arregimentar compromissos de alinhamentos das IAs com a centralidade da pessoa humana?
Stuart Russell foi um dos muitos especialistas internacionais convidados pela Comissão de Juristas do Senado para contribuir com a discussão de um projeto de lei de normas gerais para desenvolvimento e uso de sistemas de IA no Brasil. Russell realizou uma conferência virtual em junho de 2022, possibilitada pelos métodos participativos do Senado brasileiro. Somente em julho de 2023, ele foi convidado para falar no Senado dos EUA, defendendo a ideia de classificação de riscos e regras básicas de segurança que devem ser cumpridas por todos os agentes dos mercados de IA.
O resultado desse processo de escuta à vanguarda da ciência da computação, aliado ao pensamento social brasileiro (muitos ativistas da sociedade civil foram convidados), é uma sofisticação ao PL 21/2020, proposto inicialmente na Câmara dos Deputados, três anos atrás. Este projeto, por exemplo, tinha como delimitação estabelecer “fundamentos e princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil e diretrizes para o fomento e atuação do poder público” (art. 1º). Sua linguagem é principiológica e não há proposta de classificação dos graus de riscos das IAs.
Note-se, em comparação, a redação do art. 1º do PL 2338/2023. O projeto tem como objeto normas gerais de caráter nacional para o desenvolvimento, implementação e “uso responsável de sistemas de inteligência artificial no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico”.
Não é uma diferença pequena falar em “benefício da pessoa humana” no artigo que define o escopo de toda uma legislação federal. Continuar desenvolvendo as IAs do jeito que elas têm sido desenvolvidas é justamente o erro fundamental criticado por Stuart Russell, em razão da obsessão com a otimização e a maximização de algoritmos capazes de emular capacidades humanas – um problema que se conecta, fundamentalmente, com o modo como a ciência de IA tem sido ensinada e disseminada nas universidades.
Ao instituir que uma lei geral tem como objetivo o “uso responsável de sistemas de IA” e sistemas “em benefício da pessoa humana”, o projeto de lei brasileiro se aproxima da melhor tradição filosófica em tecnologia, que reúne Turing, Wiener, Weizenbaum e Jonas.
4. Assimetrias e pessoa humana
Reconhecer o benefício da pessoa humana não significa adotar uma concepção universalista de que as pessoas são iguais, pois elas não são. Os trabalhos das melhores pesquisadoras críticas em IA hoje – Joy Buolamwini, Timnit Gebru, Safiya Noble – são ricos em evidências empíricas sobre aspectos discriminatórios de sistemas de aprendizado por máquinas em razão de problemas severos de vieses em dados e nas fórmulas matemáticas que permitem calculabilidade e predição probabilística. Daí a provocação do importante livro More Than a Glitch, que oferece uma excelente síntese dessa tradição crítica de estudos em IA.
Timnit Gebru, Seeta Peña Gangadharan e outras pesquisadoras também têm denunciado o uso de certas populações periféricas, de países do Sul Global, como mero provimento de trabalho humano de supervisão de aprendizado por máquinas à baixíssimo custo, o que explicita a dimensão da dignidade da pessoa humana no trabalho humano por trás das IAs e suas cadeias de suprimento.
Existe uma estrutura de produção do “trabalho de dados” (data work) que é fundamental nas IAs e que se estrutura a partir contratos com empresas intermediárias e terceirização do trabalho imaterial, focalizando jovens precarizados na Índia, Brasil, Quênia e Madagascar. Sistemas baseados em IA exigem trabalhos de classificação de dados e tarefas de problematização de modelos, que são terceirizados de forma remota e digital no Sul Global. Como argumentado pelo indiano Amandeep Gill, enviado especial da ONU para tecnologia, “isso tudo tem implicações para a desigualdade digital, as aspirações do Sul Global de alcançar um maior nível de desenvolvimento”. Daí a importância de um projeto de lei que aborde explicitamente igualdade, a não discriminação, a pluralidade e os direitos trabalhistas.
Como sustentou o grupo de trabalho em IA da Academia Brasileira de Ciência, uma regulação baseada em valores humanos é fundamental. É muito mais uma questão de como e uma conciliação de “leis justas, inclusivas e que protejam a sociedade”, com as vocações de desenvolvimento da pesquisa brasileira sobre IA e sobre os recursos estratégicos do Brasil que também precisam ser vistos do ponto de vista de infraestrutura de dados.
Partes contrárias ao texto do Senado podem argumentar que certos ajustes podem ser feitos – como, por exemplo, reduzir o rol de direitos de informação prévia à contratação no art. 7º, modificar conceitos específicos do direito de explicação no art. 8º ou redigir, de forma distinta, os elementos que constituem risco excessivo no art. 14 –, mas a modificação da filosofia estruturante do projeto de lei no Senado é inadmissível. Garantir a centralidade da pessoa humana é levar a sério nossa responsabilidade com as gerações futuras, remediando os “déficits de humanidade” que decisões puramente automatizadas, baseadas em cálculo e conhecimento estatístico, podem produzir.
Um avião não pode decolar se não tiver cumprido uma série de exigências básicas de dispositivos de segurança na aeronave, infraestrutura aeroportuária adequada, experiência demonstrada dos pilotos e regras básicas de qualidade. Um restaurante não pode abrir se não tiver demonstração de condições adequadas para cozinha, espaços que permitam clientes escapar de incêndio e permissões específicas. Qual seria, então, a dificuldade de um licenciamento básico de recursos de hardware, sistemas de software e treinamento em larga escala para quem desenvolve sistemas de IA?
Uma lei de IA centrada na pessoa humana, nos alinhamentos com valores humanos e na precaução não é invenção de juristas isolados da vanguarda da economia do conhecimento, mas uma proposta da ciência da computação e da melhor tradição da filosofia da tecnologia. É, provavelmente, a inovação social que precisamos hoje.