OMS define princípios éticos para inteligência artificial na saúde

  • Categoria do post:JOTA

A Organização Mundial de Saúde (OMS) lançou neste início de 2024 o Guia para Modelos Multimodais de Inteligência Artificial para a Saúde, oferecendo orientações éticas e de governança para o uso de IA em saúde nos diferentes Estados-membros da Organização. O Brasil, como membro desta agência de saúde da ONU desde sua fundação, tem o dever de conhecer e observar essas diretrizes em seu território, zelando para a proteção dos seus habitantes no que se refere aos possíveis riscos que estas novas tecnologias podem trazer à sociedade e aos pacientes. 

Conforme consta do documento da OMS, os Modelos Multimodais de Inteligência Artificial (MMIAs), embora relativamente novos e não suficientemente testados, estão produzindo um impacto enorme na sociedade em vários domínios, incluindo na área da saúde. Para ficar com o exemplo mais vistoso da disseminação do uso deste tipo de modelo de IA, vale lembrar que o ChatGPT tinha, em janeiro de 2023, apenas dois meses após seu lançamento, aproximadamente 100 milhões de usuários ativos no mês. 

A OMS alerta ainda que, atualmente, várias empresas estão desenvolvendo MMIAs de forma integrada a aplicativos e produtos já amplamente utilizados, tais como os aplicativos de busca na internet e aplicativos de serviços variados, e também em novos produtos e aplicativos. Há uma verdadeira corrida global, com vultosos investimentos públicos e privados, para o desenvolvimento de MMIAs concorrentes. Mais recentemente vem emergindo os MMIAs de código aberto, que surgem de forma mais rápida e barata do que aqueles desenvolvidos pelas maiores empresas, com potencial de uso e disseminação ainda maior.

De acordo com o guia da OMS, o advento dos MMIAs está induzindo investimentos no setor e novos produtos estão sendo lançados em ritmo acelerado. A agência da ONU alerta que, embora os modelos multimodais de IA estejam sendo difundidos e usados amplamente, algumas empresas desenvolvedoras admitem que não entendem totalmente por que estes aplicativos/produtos geram certas respostas.

Mesmo com a utilização de seres humanos para reforçar o aprendizado das máquinas, os MMIAs podem gerar resultados que nem sempre são previsíveis ou controlados, como por exemplo a participação em “conversas” sem serem convidados, o que pode ser no mínimo desconfortável para os usuários, ou a publicação de conteúdo errado, enviesado ou defeituoso, mas bastante convincente e com alto potencial danoso. 

A OMS alerta ainda que grande parte do apoio generalizado aos MMIAs que existe em vários setores das sociedades modernas não deriva apenas do entusiasmo pela sua funcionalidade, mas também por afirmações não qualificadas e acríticas sobre o desempenho dos MMIAs em publicações que não foram revisadas por pares.

Sabe-se hoje que os MMIAs foram adotados ampla e rapidamente sem que os conjuntos de dados usados para treiná-los tenham sido divulgados, tornando difícil ou impossível saber, por exemplo: se os dados são tendenciosos; se os dados foram adquiridos legalmente e de acordo com as regras e princípios de proteção de dados; se o desempenho da tecnologia para resolver uma tarefa ou responder uma consulta reflete que ela foi treinada no mesmo problema ou, ao menos, em ou um problema semelhante; ou, ainda, se ela adquiriu a capacidade de resolver problemas. Outras preocupações sobre os dados usados para treinar os modelos multimodais, incluindo a consistência com as leis de proteção de dados, também são abordadas pelo documento da OMS. 

Nesse sentido, o documento da OMS refere um estudo que descobriu que um grande modelo multimodal de linguagem, o GPT-3, pode, ao mesmo tempo, em comparação com humanos, produzir informações precisas e mais fáceis de entender ou produzir “mais desinformação convincente”. O grande problema é que os humanos nem sempre conseguem distinguir o conteúdo gerado pelo MMIAs daquele gerado por um ser humano, nem tampouco se a informação é “precisa” ou se é “desinformação”.

A agência da ONU entende que nem os indivíduos nem os governos estão preparados para o lançamento de MMIAs na escala que se avizinha. Expressa preocupação com o fato de que os indivíduos não foram treinados no uso eficaz destas novas tecnologias e podem não entender que as respostas nem sempre são precisas ou confiáveis, mesmo que um chatbot com tecnologia de modelo multimodal crie tal impressão nas pessoas. 

A OMS avalia que os governos estão despreparados para enfrentar essa nova onda tecnológica. Regulamentos e leis escritas para governar o uso da IA podem não ser adequadas para enfrentar os desafios ou oportunidades associados com os MMIAs. Nesse sentido, a OMS entende como necessário o movimento da União Europeia para aprovar uma regulação específica para IA, inclusive incluindo dispositivos sobre o uso de MMIAs no território europeu. Também destaca as ações de outros governos ao redor do mundo que estão desenvolvendo rapidamente novas leis ou regulamentos, ou instituíram proibições temporárias para estes produtos.

A estimativa é que, nos próximos meses, serão lançados mais produtos que se utilizam de MMIAs, cada vez mais poderosos e com poder de introduzir novos benefícios, gerando novos desafios em termos de regulamentação. Neste ambiente dinâmico, a OMS elenca algumas orientações sobre ética e governança do uso dos MMIAs na área da saúde. 

A primeira orientação da OMS sobre ética e governança da IA para a saúde, publicada em 2021, examinou várias abordagens para aprendizado de máquina e diversas aplicações de IA na área da saúde, mas não especificamente a IA generativa ou os modelos multimodais. Quando publicada, não havia evidências de que a IA generativa e os MMIAs estariam amplamente disponíveis tão cedo e seriam globalmente aplicados a cuidados clínicos, pesquisas em saúde e saúde pública.

O novo documento publicado neste início de 2024 apresenta princípios éticos e recomendações de governança da inteligência artificial em saúde valiosos, que devem ser conhecidos por todos os atores envolvidos na incorporação destas tecnologias aos sistemas de saúde, nos setores público e privado. No texto de hoje, destaco os princípios éticos que a OMS estabeleceu para o uso da IA na área da saúde, que devem ser seguidos em todos os Estados-membros.

Princípios éticos consensuais da OMS para o uso da IA na saúde

O documento publicado pela OMS apresenta seis princípios éticos basilares para a IA na área da saúde:

Proteger a autonomia: garantir que os seres humanos continuem a controlar os sistemas de saúde e as decisões médicas; que os provedores têm as informações necessárias para usar sistemas de IA de forma segura e eficaz; que as pessoas entendem o papel que os sistemas de IA desempenham sobre os seus cuidados; que a privacidade e a confidencialidade dos dados são protegidas; que as informações utilizada nos aprendizados de máquina sejam válidas e obtidas com consentimento, regulados por quadros jurídicos apropriados para a proteção de dados.
Promover o bem-estar humano, a segurança humana e o interesse público: garantir que os projetistas de IA atendem aos requisitos regulatórios de segurança, precisão e eficácia para usos ou indicações bem definidas; que medidas de controle de qualidade na prática e de melhoria da qualidade no uso da IA ao longo do tempo sejam adotadas; que a IA não seja usada se resultar em dano mental ou físico que poderia ser evitado pelo uso de uma prática ou abordagem tradicional ou alternativa.
Garantir transparência, “explicabilidade” e inteligibilidade: as tecnologias de IA devem ser inteligíveis ou compreensíveis para desenvolvedores, profissionais médicos, pacientes, usuários e reguladores; as informações sobre os produtos devem ser suficientes e publicadas ou documentadas antes do projeto ou implantação da IA; as informações devem facilitar consultas públicas e debate sobre como a IA é projetada e como deve ou não ser usada; a IA deve ser explicável de acordo com a capacidade daqueles a quem é explicado.
Promover a responsabilidade e a prestação de contas: garantir que a IA seja usada sob condições apropriadas e por pessoas devidamente treinadas; que os pacientes e os médicos avaliam o desenvolvimento e a implantação da IA; que os princípios regulatórios são aplicados e que o algoritmo esteja sujeito à supervisão humana; que mecanismos apropriados estejam disponíveis para questionamento e para reparação de indivíduos e grupos que sejam prejudicados por decisões baseadas em IA.
Garantir a inclusão e a equidade: garantir que a IA seja concebida e partilhada para encorajar o uso e acesso mais amplo, apropriado e equitativo possível, independentemente de idade, sexo, identidade de gênero, renda, raça, etnia, orientação sexual, habilidade ou outras características; garantir que a IA não codifique preconceitos para a desvantagem de grupos identificáveis; zelar para que a IA seja monitorada e avaliada para identificar efeitos desproporcionais sobre grupos específicos de pessoas.
Promover uma IA que seja responsiva e sustentável: as tecnologias de IA devem promover a sustentabilidade dos sistemas de saúde e devem ser harmoniosas com os ambientes de trabalho.

Os princípios éticos e de governança de IA generativa e dos MMIAs podem servir de base para a construção, no Brasil, de uma regulação indutora do desenvolvimento de tecnologias de inteligência artificial em saúde que não causem danos e que sejam utilizadas sempre em benefício do sistema de saúde brasileiro e dos pacientes.