Inteligência artificial e neurodireitos: delimitando fronteiras

  • Categoria do post:JOTA

Ultimamente, no cenário global, tem emergido no campo das novas tecnologias que utilizam inteligência artificial um tema extremamente complexo e com um impacto potencial sobre a saúde humana gigantesco. Trata-se da aplicação de sistemas de IA sobre o cérebro, impactando de forma direta um conjunto de direitos humanos fundamentais dos indivíduos aplicados ao cérebro humano que vêm sendo chamados de neurodireitos.

Genericamente falando, um sistema de IA, conforme define o regulamento europeu para inteligência artificial, é um sistema baseado em máquina projetado para operar com diferentes níveis de autonomia e que pode apresentar adaptabilidade após a implantação, e que, para objetivos explícitos ou implícitos, infere, a partir das informações recebidas, como gerar resultados, como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”.

Com notícias da Anvisa e da ANS, o JOTA PRO Saúde entrega previsibilidade e transparência para empresas do setor

Essa definição inclui algoritmos complexos de aprendizado de máquina cada vez mais utilizados no campo da neurociência, aplicando-se especialmente à neurociência cognitiva e computacional, que utiliza IA para extrair características de sinais cerebrais e traduzir a atividade cerebral. Por exemplo, redes neurais podem ser usadas para decodificar intenções de atividade motora a partir de dados de eletroencefalografia, traduzindo-as em saídas como o movimento de um braço robótico. Em outro exemplo, redes generativas podem ser usadas para reconstruir estímulos visuais a partir da atividade cerebral.

Vale lembrar que um sistema de IA pode ser usado de forma independente ou como componente de um produto, não importando se o sistema de IA está fisicamente integrado a um produto ou atende à funcionalidade do produto de forma independente. Por exemplo, um dispositivo qualquer utilizado por uma pessoa não precisa necessariamente ter a IA incorporada em seu hardware. Sendo assim, qualifica-se como um sistema de IA qualquer dispositivo que estiver conectado à IA por um aplicativo ou por meio de um software em nuvem.

O risco potencial destas novas tecnologias ainda está por ser plenamente desvendado, mas pode-se antever, pelos exemplos de tecnologias já sendo incorporadas aos mercados globais, que são riscos consideráveis e com altíssimo potencial de impacto negativo para a saúde individual e coletiva.

Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA

Alguns exemplos podem ser destacados para deixar evidente o futuro que nos espera e a necessidade de se criar uma regulação estatal eficaz sobre estas tecnologias.

Interfaces cérebro-computador como ferramentas para técnicas subliminares

Já existem sistemas de IA com potencial de utilização de técnicas subliminares que vão além da consciência de uma pessoa e que podem distorcer materialmente o comportamento humano, subvertendo a livre escolha e levando esta pessoa a ações concretas nocivas à própria saúde ou à saúde de terceiros.

Este tipo de tecnologia é proibido pelo regulamento europeu para IA, por exemplo, uma vez que possui alta probabilidade de causar danos ao usuário desta tecnologia, a terceiros ou a diferentes grupos populacionais.

Com relação às neurotecnologias, há evidências de que tais técnicas subliminares podem ser facilitadas, por exemplo, por interfaces cérebro-máquina ou realidade virtual. Nesse sentido, o Regulamento Europeu para IA lembra que “a IA também pode se estender a interfaces cérebro-máquina emergentes e técnicas avançadas, como hacking de sonhos e spyware cerebral”.

Invasão de sonhos

Existem estudos que afirmam ser possível induzir “sonhos lúcidos” por meio de tecnologias como máscaras de dormir ou smartwatches conectados a smartphones. Em teoria, esses sistemas detectam quando uma pessoa está em sono REM por meio de medições de ondas cerebrais, de movimentos oculares e da frequência cardíaca. A partir daí, podem desencadear o estado de sonho lúcido por meio de sinais sensoriais como luz ou som. Em um pequeno estudo, indivíduos conseguiram se comunicar com o mundo exterior durante o sonho, respondendo a equações matemáticas simples ou perguntas de sim/não por meio de movimentos oculares predefinidos ou contrações musculares.

Como estas pesquisas ainda estão em estágios iniciais, com desafios significativos para sua implementação fora do laboratório, ainda não está claro se existe um cenário real, atualmente, para a invasão de sonhos que distorça materialmente o comportamento humano e cause — ou tenha probabilidade razoável de causar — ​​danos significativos. No entanto, pela velocidade com que estas tecnologias vêm evoluindo, convém atenção e medidas preventivas para evitar que este cenário se realize.

Spyware cerebral

O regulamento europeu também refere-se ao spyware cerebral como um tipo de tecnologia a ser proibido. As diretrizes europeias dão o seguinte exemplo:

“Um jogo pode utilizar neurotecnologias habilitadas por IA e interfaces cérebro-máquina que permitem aos usuários controlar (partes de) um jogo com capacetes que detectam atividade cerebral. A IA pode ser usada para treinar o cérebro do usuário, de forma sorrateira e sem que ele perceba, a revelar ou inferir, a partir dos seus próprios dados neurais, informações que podem ser muito intrusivas e sensíveis (por exemplo, informações bancárias pessoais, informações íntimas, etc.) de forma a causar-lhes danos significativos”

Sobre informações bancárias pessoais, as diretrizes europeias provavelmente se referem à possibilidade de que, em condições muito controladas, hackers poderiam adivinhar as senhas dos usuários a partir de suas ondas cerebrais. Atualmente, headsets de jogos de realidade virtual geralmente incorporam uma tecnologia capaz de medir a atividade elétrica do cérebro, usadas principalmente para mover personagens ou selecionar itens em jogos.

Isso significa que, em princípio, a tecnologia pode ser usada para revelar informações relacionadas a comandos motores, como o cérebro enviando um sinal ao dedo indicador para pressioná-lo, ou à atenção visual, como verificar para onde a pessoa está olhando na tela.

Estas tecnologias podem permitir que hackers, por meio da observação passiva das atividades de um indivíduo, identifiquem que tipo de onda cerebral corresponde a qual movimento muscular para aquele indivíduo, podendo usar essa informação para inferir a senha de uma pessoa quando ela a digitar em um teclado. É semelhante a ter uma câmera espiã capturando uma pessoa escrevendo sua senha em um pedaço de papel e envolve uma questão de segurança cibernética.

Sistemas de reconhecimento de emoções utilizando neurotecnologias

O Regulamento Europeu de IA também refere-se e regula fortemente os sistemas de IA capazes de reconhecer emoções, sobretudo em ambientes de trabalho ou em instituições de ensino. Tais sistemas somente são permitidos na Europa para uso médico ou por questões de segurança, sendo que em geral o seu uso em outros ambientes é classificado como de alto risco. Esses sistemas abrangem a inferência ou a identificação de emoções e intenções.

A norma europeia cita como exemplos de emoções e intenções que podem ser induzidas as seguintes: “felicidade, tristeza, raiva, surpresa, nojo, constrangimento, excitação, vergonha, desprezo, satisfação e diversão”. As diretrizes europeias também adicionam tédio, agressão, excitação emocional, ansiedade, interesse, atenção e mentira à lista.

Tais restrições atualmente em vigor na Europa abrangem todas as neurotecnologias quando usadas para detectar ou inferir emoções e intenções, por exemplo: neuromarketing para inferir o sentimento do consumidor em relação a uma marca e personalizar a publicidade; monitoramento do engajamento ou ansiedade de funcionários; avaliação dos níveis de estresse de um aluno durante tarefas de aprendizagem; e, em casos mais especulativos, o uso de ondas cerebrais em tribunais como uma ferramenta de detecção de mentiras para comprovar a familiaridade do réu com detalhes de uma cena de crime que não eram conhecidos pelo público.

Categorização biométrica

Outro tipo de tecnologia na mira dos reguladores europeus e que devem também ser objeto de preocupação no Brasil refere-se aos sistemas de categorização biométrica, sistemas estes que permitem categorizar indivíduos com base em seus dados biométricos para deduzir ou inferir sua raça, opiniões políticas, filiação sindical, crenças religiosas ou políticas, vida sexual ou orientação sexual.

Quando estes tipos de neurotecnologias são combinados com outras modalidades de novas tecnlogiaas, como rastreamento ocular, elas podem, potencialmente, permitir a inferência de informações sensíveis, como excitação.

Isso é especialmente importante para óculos de realidade virtual, onde tanto o conteúdo mostrado a um indivíduo quanto sua reação fisiológica a esse conteúdo podem ser observados. Nesses casos, o Regulamento Europeu para IA foi categórico ao afirmar que estes tipos de neurotecnologias são proibidas.

Por outro lado, categorizar indivíduos de acordo com dados de saúde ou genéticos seria classificado como de alto risco, portanto permitidos sob condições regulatórias específicas. Isso poderia ser relevante, por exemplo, se a tecnologia, em combinação com outros dados biométricos, fosse usada para inferir a probabilidade de uma pessoa desenvolver doença de Parkinson, crises epilépticas ou seu estado de saúde mental, permitindo a perfilização desta pessoa em grupos, com potenciais usos destas informações para fins diversos e nem sempre benéficos ao titular das informações.

Enquanto isso, no Brasil…

A regulação da inteligência artificial (IA) é necessária para a proteção de direitos fundamentais e para evitar que sistemas de IA representem riscos aos indivíduos e à humanidade. Atualmente no Brasil, a regulação da IA ainda é incipiente, restando o recurso à legislação existente no que se refere à softwares como dispositivos médicos (RDC ANVISA 657/2022) ou à Lei Geral de Proteção de Dados (Lei 13.709/2018)

O Brasil ainda está às voltas com a tramitação lenta e tortuosa do projeto de lei que visa estabelecer uma regulação geral de IA para o país.

Talvez seja o caso de, paralelamente a esta iniciativa, iniciássemos um amplo debate público sobre o aperfeiçoamento da regulação de IA aplicada à saúde no Brasil, para fins de evitar danos à saúde individual e coletiva irreversíveis. Não se pode ficar aguardando os danos presumíveis para antecipar medidas regulatórias que já seriam capazes de reduzir ou minimizar os riscos que a aplicação da IA representa aos direitos fundamentais do ser humano, especialmente os associados à saúde física e mental e aos direitos de personalidade.