Desafios regulatórios da inteligência artificial em saúde

  • Categoria do post:JOTA

O uso da inteligência artificial em saúde tem gerado debates acirrados quanto aos seus benefícios e riscos. Avançar em um ambiente regulatório claro, transparente e eficaz sobre IA em saúde é um imperativo para a sociedade brasileira, que deve ser amplamente debatido e rapidamente implantado.

De um lado, a IA relacionada com a saúde oferece possibilidades de diagnósticos mais precisos, planos de tratamento mais adaptados, tempos de espera mais curtos e maior envolvimento do paciente na orientação dos cuidados. De outro lado, ao mesmo tempo, a IA relacionada com a saúde levanta preocupações diversas, por exemplo, como garantir que um produto de IA seja seguro e utilizado com segurança pelos profissionais de saúde; como distribuir a responsabilidade por danos entre fabricantes, profissionais e instituições; o que o consentimento informado deve implicar em ambientes de IA; a ameaça de preconceito/discriminação algorítmica; e potenciais violações de privacidade e segurança relacionadas com a IA.

O grande desafio regulatório da inteligência artificial em saúde reside no equilíbrio entre garantir inovação e desenvolvimento da IA e, ao mesmo tempo, eliminar (ou reduzir) quaisquer resultados adversos da sua utilização. Para enfrentar este desafio, a inteligência humana deve ser capaz de decisões regulatórias sofisticadas.

Atualmente a regulação sobre a inteligência artificial em saúde no Brasil é incipiente, quase inexistente. Existem algumas camadas de normas descoordenadas que podem impactar (positiva ou negativamente) a forma como a IA é usada no sistema de saúde brasileiro. As regulações existentes se espraiam de forma desordenada pelos níveis federal, estadual e municipal, bem como pela autorregulação privada. Existem também regulações provenientes do direito civil e do direito contratual, ou ainda novas normas (LGPD, por exemplo). Além disso, ao longo do tempo, os juízes desenvolverão jurisprudência que ajudará a orientar a forma de repartir a responsabilidade caso um paciente seja prejudicado como resultado da utilização (ou não utilização) de IA relacionada com a saúde.

Conforme apontado por Silva et al (2022), em diferentes cenários regulatórios (União Europeia, Inglaterra, Canadá e Estados Unidos, por exemplo) vamos encontrar preocupações regulatórias imediatas sobre três temas relevantes que vêm causando violações a direitos e gerando riscos aos pacientes: segurança geral dos produtos; viés algorítmico e privacidade/segurança de dados pessoais.

Segurança geral dos produtos com IA em saúde

No que se refere à segurança geral, as evidências científicas até agora existentes sobre o uso de inteligência artificial em saúde sugerem que muitas dessas inovações são mais eficazes que os humanos, fato que tem gerado grandes expectativas – e muita euforia – para o potencial benéfico que a IA pode trazer para o cuidado em saúde. No entanto, evidências também sugerem que ela já comete e continuará cometendo erros, implicando em riscos relevantes aos pacientes.

Por exemplo, o IBM Watson for Oncology não foi treinado em dados reais de pacientes e fez recomendações de tratamento erradas. Descobriu-se que erros no funcionamento do dispositivo foram identificados antes de sua implementação na prática clínica, mas os desenvolvedores não divulgaram os problemas por mais de um ano (Gerke et al. 2020). Mais recentemente, descobriu-se que o Epic Sepsis Model, projetado para prever casos de sepse com base em registros eletrônicos de saúde, omite dois terços dos casos (Wong et al. 2021). Espera-se que tais exemplos sejam raros, mas para que a IA possa garantir maior segurança e eficácia dos cuidados de saúde, os profissionais, os pacientes e o público devem poder confiar que os sistemas regulamentares (autorregulação e regulação estatal) eliminarão a IA insegura e ineficaz.

Outras questões de segurança estão relacionadas à forma como os prestadores de cuidados de saúde interagem com as ferramentas de IA. Existem dois lados deste problema: subutilização e excesso de confiança. No que diz respeito à subutilização, os prestadores que não têm certeza sobre como a IA funciona podem estar relutantes em confiar e não estar dispostos a adoptar uma IA que possa reduzir os erros médicos (Risk Analytica, 2017). No que diz respeito à dependência excessiva, existem riscos se os fornecedores confiarem reflexivamente numa ferramenta de IA sem deliberarem, por exemplo, se esta foi treinada em dados não representativos; nesses casos, o aconselhamento/diagnóstico da ferramenta para um determinado paciente pode não estar correto.

Viés algorítmico

A inteligência artificial relacionada à saúde é projetada por humanos, que têm preconceitos explícitos e implícitos. Os algoritmos que os humanos desenvolvem podem, portanto, ser tendenciosos contra grupos/pacientes marginalizados. Os inovadores da IA fazem muitas escolhas de design que podem aumentar ou diminuir os riscos de enviesamento algorítmico, tais como decisões sobre se devem ou não prosseguir e desenvolver conjuntos de dados que são mais representativos, mas que podem ser mais dispendiosos ou de outra forma difíceis de obter.

Mesmo conjuntos de dados representativos podem revelar-se problemáticos se, por exemplo, forem originalmente recolhidos de forma a codificar preconceitos dos investigadores ou forem inseridos num algoritmo que codifica preconceitos e, consequentemente, tem impactos diferenciais (Cirillo et al. 2020).

Também há a questão de saber se os conjuntos de dados são representativos. Já existe discriminação contra diferentes grupos (por exemplo, mulheres, populações racializadas, minorias sexuais e de gênero) nos cuidados de saúde (Ayhan et al. 2020). A IA relacionada com a saúde pode ajudar, fornecendo recomendações que podem fazer com que os prestadores “verifiquem” os seus preconceitos/julgamentos inerentes. No entanto, a IA treinada com base em dados que sub-representam sistematicamente grupos devido à discriminação pode replicar os problemas de discriminação existentes, resultando em recomendações de IA que são inferiores para pacientes de populações marginalizadas (McCradden et al. 2020). Isto poderia consolidar ou exacerbar desigualdades existentes.

Segurança, privacidade e proteção

Muitos temem que a coleta de big data por governos ou empresas multinacionais (por exemplo, Google, IBM, Facebook) produza inevitavelmente violações de privacidade. Há justo receio do uso de dados pessoais de saúde por diferentes instituições para, por exemplo, recusar seguros, aumentar cobranças devido a riscos de saúde identificados nessas bases de dados ou, ainda, afetar negativamente as oportunidades de emprego. Apesar dos riscos, o uso de big data continua a ser necessário para construir uma IA segura e eficaz e para mitigar os riscos de enviesamento algorítmico.

As preocupações com a privacidade são ainda mais complicadas por questões relacionadas à segurança cibernética. Mesmo quando os titulares e os utilizadores adquirem dados de forma justificada, devem protegê-los de caírem nas mãos de pessoas que não possuem razões legítimas de acesso aos mesmos. O sistema de saúde brasileiro é, na prática, operado por uma infinidade de diferentes intervenientes e entidades (hospitais sem fins lucrativos, clínicas privadas, pequenos consultórios gerais, SUS, grandes cadeias de farmácias etc.) com capacidades variadas para garantir sistemas seguros.

Do ponto de vista da segurança, as preocupações com a privacidade podem tornar mais difícil a construção de inovações em IA a partir de dados agregados que sejam representativos das populações que irão servir. Os membros de comunidades indígenas, negras e outras comunidades que foram marginalizadas podem opor-se à partilha de dados devido a abusos históricos e atuais dos seus dados por parte de governos e empresas privadas. Ao mesmo tempo, existe o risco de erro no diagnóstico e no tratamento se não forem incluídos dados dessas populações.

A “desidentificação” de dados, na qual as informações de identificação são eliminadas, reduz os riscos de privacidade, mas nem sempre é possível. Também existe o risco, com grandes conjuntos de dados envolvidos na maioria dos projetos de IA relacionados com a saúde, de “reidentificação” e utilização indevida por intervenientes menos escrupulosos (Cohen e Mello 2018).

Diferentes países estão desenvolvendo normas de melhores práticas para proteger os dados utilizados na IA, e mesmo normas básicas de cibersegurança podem ajudar a minimizar estes riscos. Mas eles permanecem. Os inovadores também podem enfrentar desafios na aquisição de dados representativos de restrições excessivas de privacidade e/ou das múltiplas camadas de restrições que operam nos níveis federal, estadual e privado.

No Brasil, ao mesmo tempo que o uso da IA em saúde vem crescendo exponencialmente nos sistemas público e privado, a regulação sobre esses novos produtos avança a passos de tartaruga, expondo profissionais, pacientes e a sociedade como um todo a riscos que podem violar direitos humanos em cascata, a começar pelo direito à saúde.

Para que possamos usufruir dos benefícios da inteligência artificial em saúde, sobretudo no âmbito do SUS, uma regulação eficaz é certamente mais salutar para a inovação e o desenvolvimento da IA em saúde no país do que uma selva desregulada, habitada por aventureiros com as intenções mais variadas, em grande parte pautadas pelo lucro.