A inteligência artificial está sendo cada vez mais implantada no setor de saúde do Brasil, desde algoritmos de diagnóstico até plataformas de telemedicina. Por exemplo, hospitais do setor público brasileiro estão desenvolvendo ferramentas de IA para detecção precoce de câncer que já rastrearam centenas de milhares de pacientes. Essas inovações prometem maior eficiência e resultados, mas também levantam implicações legais e éticas significativas.
Os sistemas de IA podem alterar fundamentalmente a tomada de decisões clínicas, a autonomia do paciente e o tratamento de dados na área da saúde, desafiando premissas básicas da regulação do setor. Questões de segurança do paciente, responsabilização por erros, privacidade de dados e viés algorítmico exigem supervisão cuidadosa.
Com notícias da Anvisa e da ANS, o JOTA PRO Saúde entrega previsibilidade e transparência para empresas do setor
Em parceria com o pesquisador Matheus Falcão, do Cepedisa/USP, e a partir de amplo estudo internacional comparado realizado, destacamos um conjunto de desafios que o Brasil precisa enfrentar para desenvolver uma regulação justa e eficaz para a IA. A regulação da inteligência artificial transcende a simples elaboração de uma nova lei ou norma jurídica qualquer, abrangendo um amplo escopo de desafios técnicos e de governança estatal que procurarei sintetizar nesta coluna.
O Brasil representa um caso único na América Latina. Possui o maior sistema universal de saúde do mundo – o Sistema Único de Saúde (SUS) – que atende mais de 200 milhões de pessoas e garante a saúde como um direito fundamental na Constituição. O Brasil é, de fato, o único país latino-americano com cobertura de saúde totalmente universalizada. Assim, qualquer IA usada na área da saúde deve estar alinhada à promessa constitucional de assistência médica resolutiva, benéfica, equitativa e digna.
O Brasil também mudou seu cenário jurídico ao promulgar a Lei Geral de Proteção de Dados (Lei 13.709/2018), uma lei abrangente que eleva a privacidade (agora um direito constitucional a partir de 2022) e impõe obrigações sobre o processamento de dados pessoais.
A LGPD concede explicitamente aos indivíduos o direito a uma explicação e revisão de decisões tomadas exclusivamente por processamento automatizado, incluindo IA, que afetem seus interesses. Isso torna a LGPD um ponto de partida para a supervisão da IA no Brasil.
No entanto, embora esses princípios jurídicos e regulatórios maios amplos já existam e estejam, de certa forma, protegidos por leis e regulamentos, ainda há uma lacuna na regulação específica da IA. A seguir, alguns dos principais desafios que o Brasil enfrenta na regulação da inteligência artificial na área da saúde.
Falta de legislação específica para IA
Um desafio fundamental é a ausência de um arcabouço legal específico que governe a IA na saúde. Até muito recentemente, o Brasil não possuía leis específicas ou diretrizes vinculativas sobre o uso de IA na área da saúde. Ao contrário de medicamentos ou dispositivos médicos, que estão sujeitos a regulamentações detalhadas, o software de IA caiu em uma zona cinzenta.
Leis gerais (como proteção ao consumidor, códigos de ética médica e estatutos de proteção de dados) se aplicam apenas de forma fragmentada. Por exemplo, a LGPD aborda aspectos de privacidade de dados de sistemas automatizados, e o Código Civil e o Código de Defesa do Consumidor podem atribuir responsabilidade ou deveres de segurança do produto, mas não há nenhum estatuto que regule diretamente como os sistemas de IA na área da saúde devem ser desenvolvidos, validados e monitorados.
As primeiras tentativas de criar um “arcabouço legal para IA” têm sido lentas. O PL 2338/2023, aprovado no Senado, encontra-se em vagarosa e desinteressada tramitação na Câmara dos Deputados.
Lacunas na proteção de dados e privacidade
Embora a LGPD brasileira forneça uma camada fundamental de regulação, existem lacunas importantes quando se trata de IA na área da saúde. Dados de saúde são classificados como dados pessoais sensíveis pela LGPD, exigindo um alto padrão de proteção.
A LGPD também concede aos pacientes (titulares dos dados) direitos como consentimento, acesso e correção em relação aos seus dados pessoais e, crucialmente, o direito de revisar decisões automatizadas que os afetam significativamente. No papel, esse direito à explicação/revisão é uma ferramenta poderosa para a responsabilização algorítmica na saúde – por exemplo, um paciente a quem um sistema baseado em IA negou um determinado tratamento pode exigir uma revisão humana dessa decisão.
Na prática, contudo, essa proteção enfrenta limitações. Muitos algoritmos de IA, especialmente aqueles baseados em aprendizado de máquina, operam como “caixas-pretas” cuja lógica de tomada de decisão não é facilmente interpretável.
Há um trade-off inerente à IA entre explicabilidade e precisão, e os atuais sistemas clínicos de IA de alto desempenho frequentemente sacrificam a transparência. Isso significa que, embora a lei exija transparência, fornecer uma explicação significativa a um paciente sobre o resultado de um modelo complexo pode ser tecnologicamente desafiador. A instrumentalização do princípio de transparência da LGPD na IA da saúde ainda é uma questão em aberto.
Restrições de capacidade institucional e regulatória
O Brasil também enfrenta desafios institucionais para regular efetivamente a IA no setor da saúde. Os órgãos reguladores que tradicionalmente supervisionam a saúde e a tecnologia precisam rapidamente desenvolver capacidade para lidar com os novos riscos da IA.
O principal regulador da saúde, a Agência Nacional de Vigilância Sanitária (Anvisa), tem jurisdição sobre dispositivos médicos e medicamentos. Ela deu os primeiros passos para regular software na saúde – notadamente, em 2022, a Anvisa emitiu a Resolução RDC 657/2022 para regulamentar o “Software como Dispositivo Médico” (SaMD) e, mais recentemente, a RDC 751/2022, que atualiza a estrutura geral para dispositivos médicos, reconhecendo e abordando o SaMD.
Ambas as regras exigem que softwares de saúde autônomos com fins médicos (por exemplo, um aplicativo de diagnóstico de IA) passem por aprovação e certificação semelhantes a outros dispositivos médicos. No entanto, a RDC 657/2022 deixou certos softwares fora de seu escopo, como os chamados aplicativos de “bem-estar” ou de estilo de vida não explicitamente comercializados como dispositivos médicos.
Isso cria uma brecha: aplicativos baseados em IA que podem impactar a saúde (por exemplo, um aplicativo de smartphone que analisa a frequência cardíaca ou o oxigênio no sangue para fins de condicionamento físico) podem escapar da regulamentação de dispositivos médicos, posicionando-se como ferramentas gerais de bem-estar. A exclusão dessas tecnologias significa que os problemas decorrentes delas não são sistematicamente abordados pela supervisão da Anvisa.
Viés e questões de equidade em saúde
Sistemas de IA na área da saúde correm o risco de perpetuar ou até mesmo agravar vieses e iniquidades em saúde existentes. O Brasil, como uma sociedade altamente diversa com acentuadas disparidades regionais e socioeconômicas, precisa enfrentar esse desafio diretamente.
Algoritmos de IA aprendem com dados; se os dados de treinamento refletirem vieses (subdiagnóstico histórico de certos grupos, por exemplo) ou não forem representativos da população brasileira, os resultados da IA podem ser distorcidos. Um exemplo claro é a disparidade de desempenho de algumas ferramentas de diagnóstico em diferentes tons de pele.
Estudos e experiências em todo o mundo têm demonstrado que oxímetros de pulso e sistemas de IA para dermatologia frequentemente apresentam desempenho menos preciso em pacientes de pele mais escura devido a treinamentos ou design de sensores tendenciosos.
Reguladores e pesquisadores brasileiros observaram esse problema. Em um país onde mais da metade da população se identifica como negra ou parda (IBGE, 2018), tais vieses na IA médica são especialmente preocupantes para a equidade em saúde. Sem intervenção, a IA poderia sistematicamente subdiagnosticar ou priorizar incorretamente o atendimento a determinados grupos raciais ou étnicos, exacerbando as disparidades em vez de reduzi-las.
O viés também pode surgir em outras dimensões, como status socioeconômico, gênero e geografia. Se um sistema de IA para alocação de recursos hospitalares ou previsão de risco de doenças for treinado predominantemente com dados de sistemas hospitalares urbanos mais ricos nas regiões Sul e Sudeste do Brasil, suas recomendações podem não se adequar à realidade de comunidades mais pobres ou rurais (por exemplo, pode presumir a disponibilidade de certos recursos de acompanhamento que são escassos em certas regiões). Isso pode levar a viés contextual, em que os recursos são distribuídos de forma desigual.
Garantir a equidade algorítmica na área da saúde é, portanto, um grande desafio. Requer não apenas estratégias técnicas de desviés, mas também o reconhecimento legal de que resultados tendenciosos são inaceitáveis.
Atualmente, o arcabouço legal brasileiro possui disposições gerais antidiscriminatórias (a Constituição e as leis proíbem a discriminação por raça, gênero etc.), que presumivelmente se aplicariam caso um sistema de IA seja considerado discriminatório. No entanto, detectar e comprovar a discriminação algorítmica é difícil sem transparência.
O princípio da equidade tem sido destacado em diretrizes internacionais sobre IA em saúde e também faz parte da teoria brasileira sobre direito à saúde. A Organização Mundial da Saúde (OMS), por exemplo, lista “promover a inclusão social e garantir que os algoritmos não reproduzam preconceitos” como um princípio fundamental. Incorporar esse princípio à regulamentação e à prática brasileiras não é trivial.
A ausência de auditoria ou relatórios obrigatórios de viés na legislação brasileira atual significa que os desenvolvedores não são obrigados a testar ou divulgar viés em modelos de inteligência artificial. Consequentemente, há pouco incentivo para abordar essas questões proativamente.
Considerações finais
Os desafios regulatórios aqui sintetizados estão sendo debatidos no âmbito do projeto internacional “Regulating AI for the Future”, do qual participo em conjunto com Matheus Falcão (Cepedisa/USP) e um grupo de pesquisadores de diferentes instituições acadêmicas do Canadá e da Europa.
A partir dos debates e das trocas de experiências a serem realizadas ao longo do projeto, esperamos poder formular e publicar algumas propostas de soluções regulatórias para a IA em saúde que poderão (ou não) contribuir para o debate global sobre o tema e para o avanço da capacidade regulatória do Estado brasileiro frente aos novos desafios éticos e humanitários que se colocam frente à incorporação da inteligência artificial no dia a dia do ser humano.