Inovação e capacidade humana para conter os perigos da IA

  • Categoria do post:JOTA

Olhando em retrospectiva, a Inteligência Artificial (IA) parecia separada daquilo que chamamos de redes sociais, e da realidade virtual. Hoje, essas coisas todas estão ligadas a tal ponto que é impossível dizer onde começa uma e termina outra. Por exemplo: as redes sociais utilizam algoritmos baseados em soluções de IA.

Para compreendermos melhor a inovação constante que tais tecnologias imprimem em nossas vidas, se faz necessário analisar cada parte que as compõe, separadamente. Falamos muito em “inteligência” ao tratar e nomear essas “Inteligências Artificiais”.

Mas é preciso começar revendo esse conceito, essa nomeação, já que o que esses algoritmos, máquinas, programas e processadores fazem se parece muito a tecnologias que acompanhamos há muito tempo. Os computadores, com sua capacidade e velocidade de processamento, por exemplo, não seriam então, também, uma espécie de IA?

Tal nomeação como “inteligência” me parece um problema, pois pode gerar uma falsa penumbra de associações. Inteligência, segundo as descrições de dicionários, tem a ver com uma propriedade dos organismos vivos. Ainda que as IAs ao longo da História tenham sido pensadas para tentar emular a mente humana, dizer que é uma “inteligência” já é problemático.

Sugiro aqui algo como “Máquinas” ou “Aparelhos” de ‘Lógica Artificial’. Hoje, no máximo programas como o ChatGPT podem ser considerados como muito articulados. Máquinas articuladas. Alguns outros autores têm bons nomes para tal; o filósofo e especialista em psicanálise Slavoj Zizek traz o conceito de “Idiotice Artificial”[1], e o linguista e filósofo Noam Chomsky as chama de “Software de Plágio”.

Indo além dos nomes, o campo de pesquisa sobre as IAs passa por muitas áreas do conhecimento, como a TI (Tecnologia da Informação), Matemática, Direito (LGPD – Lei Geral de Proteção de Dados, discriminação por algoritmos), Linguística, Neurociências, Psicanálise, entre outras.

Escrever um texto como este é lidar justamente com a nossa limitação em relação a nossa real capacidade de processamento de informações. Informações em quantidade excessiva, e cada vez mais extensas e profundas, assim como fragmentadas e superficiais, distribuídas pela internet e redes sociais.

Mas o paradoxo é que estas mesmas pessoas e criadores de determinadas IAs, que sugeriram parar momentaneamente com o desenvolvimento dessas tecnologias, continuaram e continuam a investir nelas.

Sobre o ChatGPT, especificamente, Olavo Amaral (2023, p. 20) aponta, sobre os riscos prováveis e as limitações da máquina, a “capacidade do ChatGPT de criar conteúdo enganoso, ofensivo ou injusto, seja pelas más intenções do usuário, seja pelos vieses do conteúdo usado para treinar o algoritmo”[2] e para a presença de alucinações, que são informações imprecisas ou enganosas produzidas por soluções de IA.

Amaral (idem, p. 24), também menciona que o colunista de tecnologia Kevin Roose, do New Tork Times, ao utilizar o chatbot Bing Chat como seu buscador padrão, recebeu respostas chocantes, em que a solução de IA afirmava desejar ser humano e atos destrutivos que seu lado sombrio poderia cometer e sobre os quais fantasia, desde espalhar desinformação, hackear computadores e manipular usuários, até manufaturar vírus letais, induzir pessoas a se matarem mutuamente e roubar códigos nucleares[3].

Diante de situações como essas, é possível arguir que não haverá inteligência artificial suficiente para atingir a sofisticação do aparelho psíquico. Isso não ocorrerá, no mínimo, antes da possibilidade praticamente inviável de compreendermos todos os meandros de nossa própria mente e cérebro. Então, como, de fato, conseguiríamos supostamente transpor uma inteligência que é a do humano, com a racionalidade e emoção ligadas a ela, para uma inteligência artificial? Ainda mais quando não conhecemos como é a nossa própria?[4]

O que é certo (até o momento) é que os computadores e as soluções de IA certamente dão conta de coisas que nós, seres humanos, não damos. Os computadores podem processar um determinado tipo de dados e informações que nós não conseguimos; mas nós também podemos processar a nível consciente – e principalmente inconsciente (estamos falando de trilhões de processos inconscientes) – informações que as máquinas não conseguem e provavelmente não conseguirão, já que é preciso sentir para pensar.

Para Damasio (2012)[5] a proposição cartesiana “penso, logo existo” de Descartes é colocada por ele como “Erro de Descartes”. Damasio inverte tal proposição para “existo (e sinto), logo penso”.

Apesar de tudo isso, o chamado “risco existencial” da inteligência artificial é pautado desde muito tempo, não só pela ficção científica, mas por pensadores sérios, tais como o filósofo sueco Nick Bostrom. Ele argumenta que, dado o nível de desenvolvimento dessas “máquinas” atualmente, é provável que surja em algum momento uma espécie de “explosão de inteligência”, que, segundo consta no texto de Amaral (2023, p. 24), “a levaria a um patamar de inteligência vastamente superior ao nosso em pouco tempo”. Para Amaral (ibidem), ainda:

É mais difícil prever o que aconteceria daí para a frente, o que dá margem desde a cenários triunfais, em que todos os problemas humanos são solucionados, até a destinos catastróficos, em que somos esmagados como moscas. Como não sabemos ao certo o que uma superinteligência pode querer, Bostrom e outros teóricos concentram-se no que chamam de “objetivos instrumentais”: metas que seriam úteis para a máquina levar adiante. Essas metas incluiriam aumentar seus poderes e tornar-se mais autônoma, além de resistir a mudar suas prioridades. Tudo isso poderia levar facilmente à extinção humana, caso os objetivos de ambas as espécies não estejam perfeitamente alinhados. […] Um ponto-chave no argumento de Bostrom é que o risco depende do que ele chama de “velocidade da decolagem” – o tempo entre a geração de uma inteligência no nível da nossa e o momento em que ela adquire uma vantagem irreversível. Se esse tempo for curto, é provável que não tenhamos chance de montar uma reação. Também é possível que só percebamos o risco tarde demais.

O fato é que hoje certos segredos da indústria das redes sociais e IAs já foram escancarados por ex-funcionários dessas empresas, e alguns deles dizem que alguns sistemas já operam de maneira semiautônoma.

Como saber então a que passo estamos? E as IAs? Talvez não dê tempo de lançarmos as perguntas que precisamos nos fazer antes de compreender as IAs e seu possível poder: quem somos nós? O que é ser inteligente? Do que falamos quando falamos em humanidade, autoconsciência, autonomia, livre-arbítrio? São atributos, afinal, exclusivos à espécie humana?

[1] ŽIŽEK, S. (2023) Zizek: A Idiotice Artificial. Project Syndicate | Trad.: Daniel Pavan, n´A é Redonda. https://outraspalavras.net/outrasmidias/zizek-a-idiotice-artificial/ (Recuperado em 09.05.2023).

[2] AMARAL, O. (2023, abr.). As formas intermediárias. Revista Piauí, 199, 20-27.

[3] GRANELLO, Caio Garrido. (2023). Inteligências artificiais: um olhar para as subjetividades contemporâneas a partir do advento das novas tecnologias. Boletim Formação Em Psicanálise, 31(1), 123–141. https://doi.org/10.56073/bfp.v31i1.63.

[4] GRANELLO, 2023, p. 135.

[5] DAMASIO, A. R. (2012). O erro de Descartes: emoção, razão e o cérebro humano. Trad. Dora Vicente, Georgina Segurado. — 3a ed. — São Paulo : Companhia das Letras, 2012.