O termo “inteligência artificial” foi utilizado pela primeira vez em 1955 por John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, na proposta do workshop “Dartmouth Summer Research Project on Artificial Intelligence” [1]. Desde então, com o avanço das tecnologias digitais, diferentes ondas de desenvolvimento moldaram a concepção de “máquinas pensantes”, de acordo com as possibilidades tecnológicas de cada época.
A onda mais recente surgiu com a disponibilização do GPT-3 pela OpenAI, acessível por meio de uma interface de conversação simples, que pode ser utilizada por qualquer pessoa sem conhecimentos técnicos específicos: o lançamento do ChatGPT em 2022.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
O potencial econômico e social da IA generativa inaugurou uma nova fase de debates sobre o equilíbrio entre os ganhos econômicos e os impactos sociais que essas tecnologias podem produzir. Este artigo busca refletir sobre esse cenário, retomando preceitos filosóficos acerca da relação entre o ser humano e a tecnologia.
O filósofo alemão Martin Heidegger, em A questão da técnica[2], faz reflexões sobre a natureza das tecnologias do século 20, que eram baseadas na eletricidade e mecânica, a fim de que possamos ter uma “relação livre” com elas.
Ele distingue tecnologia enquanto conjunto de instrumentos ou procedimentos técnicos (o ente tecnológico) daquilo que ele chama de essência da tecnologia — ou seja, o modo de desvelamento da realidade que a tecnologia instaura.
Assim como a “árvore” concreta não é o mesmo que a “essência de árvore”, a tecnologia que usamos não é o mesmo que o “modo de ser” que a torna possível[3]. A essência da tecnologia, para Heidegger, é um modo específico de revelar o mundo. A essência é mais fundamental: é um modo de pensar e organizar a realidade, que transforma tudo (inclusive o ser humano) em recursos disponíveis, algo a ser controlado, medido, estocado.
Enquanto nos limitarmos a usar, aceitar, rejeitar ou ignorar a tecnologia como um simples instrumento, não entenderemos sua essência. Nossa relação com ela continua inconsciente, passiva, e somos determinados por ela sem saber. Ele critica a ideia de que a tecnologia seja neutra, um “meio” que depende apenas de como o utilizamos[4]. Esse pensamento é perigoso, pois encobre sua essência, sua capacidade de moldar o próprio modo como o ser humano vê o mundo e age nele. Assim, a importância de conhecer a essência da tecnologia permite que possamos entender e questionar a relação com ela.
Heidegger argumenta que a tecnologia da época não era apenas um conjunto de artefatos, mas uma forma de revelação do real. Ele denomina Enframing (Ge-stell)[5] o modo de desvelamento próprio da técnica, no qual tudo que existe passa a se apresentar como recurso disponível (standing-reserve) para uso.
Nesse processo de enquadramento, o mundo e os seres (inclusive os humanos) são interpretados unicamente pelo viés utilitário. O ser humano torna-se ordenador desse estoque de recursos e, no limite, também é reduzido a um recurso – “chega ao ponto de ter de ser tomado como reserva disponível”[6].
Assim, a essência da tecnologia impõe uma visão instrumental absoluta, ameaçando a relação do homem com seu próprio ser. Heidegger alerta que essa forma de revelação traz um perigo à essência humana: ao colocar tudo sob medida e controle, o Enframing pode ocultar outras formas de revelação mais autênticas (poiesis) e empobrecer a experiência da verdade. O perigo maior não são as máquinas em si, mas sim essa mentalidade técnica totalizante, que pode negar ao homem a capacidade de experimentar uma verdade mais originária. Em outras palavras, a “essência da tecnologia, enquanto destino do revelar, é o perigo”[7].
Contudo, Heidegger também indica que onde está o perigo pode residir a salvação: ao tomar consciência do Enframing, o homem poderia restaurar uma relação mais livre com a tecnologia, recuperando a abertura ao Ser para experiências que realmente importam ao ser humano, e não somente como um fator de organização utilitarista.
Essa ambiguidade entre perigo e salvação será útil para pensarmos a IA: a própria infraestrutura algorítmica que ameaça valores humanos poderia, se reorientada, servir a fins mais elevados.
A partir de analisar tecnologias digitais avançadas como inteligência artificial à partir do conceito de Enframing de Heidegger, é importante entender que modelos contemporâneos que estão revolucionando a relação entre ser humano e tecnologia são treinados à partir de dados que derivam da utilização humana da internet: ou seja, o próprio ser humano passa a ser um standing reserve, não mais responsável pela organização e procedimento que leva ao bringing forth, mas mais um elemento que é organizado e desvelado pela tecnologia. Livros, vídeos, comportamentos e outras formas da expressão da vida humana, traduzidos em dados a serem organizados por uma tecnologia que não é neutra.
Ao utilizarmos esses modelos algorítmicos, que somente organizam dados e os expõem à consulta humana, não estamos interagindo com a essência da tecnologia, mas, ao contrário, passamos a ser induzidos a entender uma forma de mundo que é baseada em estatísticas, probabilidades e interesses econômicos.
Continuando nesse caminho de dependência algorítmica o mundo como algo a ser gerado, previsto, entregue e consumido de forma a reduzir o pensamento a otimização de fluxos de informação, resultando em uma realidade sendo orientada por lucro, e não por valores como verdade, justiça ou liberdade. A experiência humana é comercializada, e moldada segundo o que “funciona” nos sistemas, aproximando técnica da economia: o Enframing, aqui, não é apenas uma estrutura ontológica, mas se funde com o interesse econômico para criar uma realidade instrumental total.
Sob esse prisma é que a adoção dessas tecnologias para atividades da vida política na democracia deve ser encarada. Se o mundo inteiro passa a implementar algoritmos para refletir ou decidir sobre a realidade humana, estamos aos poucos substituindo o ato de pensar pelo ato de consultar.
Isso afeta diferentes áreas da vida social e humana: a política nas democracias, quando decisões se baseiam em dados, algoritmos e previsão de comportamento, e não em deliberação pública; a justiça, quando sentenças são sugeridas por IA com base em casos anteriores, e não na escuta ética do singular; a arte e a cultura, quando a criação se torna predição do gosto, e não ruptura e a educação, quando aprender vira consumir conteúdo formatado e rápido.
Nesse contexto, as discussões ao redor do mundo sobre limites éticos, modelos regulatórios e o futuro da sociedade com algoritmos intermediando a visão de mundo são importantes para que a tecnologia não seja somente um fim em si mesmo.
Daron Acemoglu, ganhador do Nobel de Economia em 2024, alerta sobre os potenciais efeitos negativos da inteligência artificial não decorrem de uma suposta essência destrutiva da tecnologia, mas das escolhas feitas por pesquisadores, empresas e governos sobre o rumo de seu desenvolvimento. Trata-se de uma tecnologia poderosa e de uso geral, capaz de aprofundar desigualdades existentes e concentrar poder se deixada a mercados desregulados e a um pequeno grupo de atores privados.
Por isso, mais do que em outras inovações, é vital refletir sobre sua direção de pesquisa e sobre como a regulação pode mitigar riscos, garantindo que a tecnologia não se torne um fim em si mesma, mas sirva a objetivos coletivos e democráticos[8].
Por isso, as reflexões apresentadas neste texto não têm como objetivo expor uma visão negativa da tecnologia. Pelo contrário: ao reconhecer o potencial de ganhos econômicos capazes de se converter em bem-estar social, é essencial não perder de vista que os produtos tecnológicos são moldados por finalidades previamente definidas por aqueles que os desenvolvem.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
Nesse contexto, o filme Mountainhead (2025) oferece uma crítica pertinente: mostra como o elemento humano, mesmo à frente dessa nova era de inovações, pode comprometer os possíveis ganhos sociais ao adotar perspectivas mesquinhas e individualistas. Essa postura tende a centralizar a evolução tecnológica no lucro a qualquer custo, transferindo para a sociedade os efeitos negativos decorrentes desse processo.
Em conclusão, a reflexão sobre a relação entre técnica e essência humana deve acompanhar a interação simbiótica com as tecnologias digitais, a fim de evitar que a sociedade seja reduzida a mero objeto a serviço de interesses individuais. O objetivo último deve ser sempre a promoção da dignidade humana e social.
[1] A proposta original está disponível online pela Universidade de Standford. Ver http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf . Acesso em 10.09.2025
[2] HEIDEGGER, Martin. The question concerning technology and other essays. New York: Harper & Row, 1997.
[3] Ibidem, p.4
[4] Ibidem
[5] Ibidem, p. 19
[6] Ibidem, p. 20-23
[7] “The essence of technology, as destining of revealing is the danger”. HEIDDEGER, op.cit, p. 28
[8] ACEMOGLU, Daron. Harms of AI. National Bureau of Economic Research, 2021. Disponível em https://www.nber.org/system/files/working_papers/w29247/w29247.pdf . Acesso em 10.09.2025