Notícias

A rápida adoção da IA ​​pela medicina preocupa os pesquisadores

Hospitais e universidades devem se mobilizar para preencher lacunas na regulamentação, dizem especialistas.

A inteligência artificial (IA) já auxilia médicos a fazer diagnósticos , triar casos críticos e transcrever anotações clínicas em hospitais nos Estados Unidos. Mas a regulamentação de produtos de IA médica não acompanhou o ritmo acelerado de sua adoção, argumentam pesquisadores em um relatório publicado em 5 de junho na PLOS Digital Health 1 .

Os autores apontam limitações na forma como a Food and Drug Administration (FDA) dos EUA aprova esses dispositivos e propõem estratégias mais amplas que vão além da agência para ajudar a garantir que as ferramentas de IA médica sejam seguras e eficazes.

Mais de 1.000 produtos de IA médica foram aprovados pela FDA, e os hospitais estão adotando-os rapidamente. Ao contrário da maioria dos outros produtos regulamentados pela FDA, as ferramentas de IA continuam a evoluir após a aprovação, à medida que são atualizadas ou retreinadas com base em novos dados . Isso aumenta a necessidade de supervisão contínua, que as regulamentações atuais têm capacidade limitada para garantir.

A discussão é especialmente oportuna em meio a sinais de que o governo federal pode reduzir a regulamentação da IA. Em janeiro, o presidente Donald Trump revogou uma ordem executiva focada na segurança da IA, citando a necessidade de remover barreiras à inovação. No mês seguinte, demissões afetaram funcionários da divisão da FDA responsável por IA e saúde digital.

Sem uma supervisão adequada, existe o risco de algoritmos médicos darem recomendações enganosas e comprometerem o atendimento ao paciente. “É preciso haver salvaguardas”, afirma Leo Anthony Celi, pesquisador clínico do Instituto de Tecnologia de Massachusetts em Cambridge e coautor do relatório. “E acho que depender da FDA para elaborar todas essas salvaguardas não é realista e talvez até impossível.”

Nível baixo para aprovação

Os critérios usados ​​pela FDA para revisar e autorizar ferramentas médicas de IA costumam ser menos rigorosos do que os usados ​​para medicamentos. E como outros países dependem da FDA para embasar suas próprias decisões, sua abordagem pode ter implicações globais. De acordo com a FDA, apenas as ferramentas que podem representar um risco maior para os pacientes são obrigadas a passar por um ensaio clínico, por exemplo. Outra preocupação é que algoritmos médicos frequentemente apresentam baixo desempenho quando aplicados a populações diferentes daquelas com as quais foram treinados. Devido a essas limitações, a aprovação regulatória não garante que um produto de IA médica seja benéfico para as pessoas que se destina a ajudar, diz Celi.

O ideal é que os hospitais avaliem o desempenho dos algoritmos em suas próprias populações de pacientes e treinem os médicos para interpretar os resultados e responder adequadamente antes de adotar essas tecnologias. “Um dos maiores desafios é que a grande maioria dos hospitais e clínicas não tem recursos para contratar equipes de IA” para realizar esses testes, afirma Celi, acrescentando que um estudo publicado neste ano 2 constatou que muitos hospitais estão comprando ferramentas de IA “prontas para uso” e as utilizando sem validação local. “Isso é uma receita para o desastre”, afirma.

Em seu relatório, Celi e seus coautores propõem que as universidades se unam a instituições de saúde para avaliar a qualidade dos dispositivos médicos de IA. “Peça a eles que auxiliem o departamento de TI do hospital na preparação dos conjuntos de dados, na execução dos modelos, na avaliação dos algoritmos e no monitoramento de seu impacto”, afirma. “Isso nunca foi feito antes, mas acreditamos que as estruturas tradicionais simplesmente não serão suficientes”, dada a rapidez com que as tecnologias estão evoluindo, acrescenta.

Assistência externa

A FDA não tem autoridade para exigir que hospitais realizem tais testes após a aprovação. “Isso simplesmente não faz parte de sua jurisdição legal”, diz Michelle Mello, pesquisadora de direito da saúde na Universidade Stanford, na Califórnia. “Sempre foi uma questão de quem, além da FDA, estaria envolvido e o que estariam fazendo.”

Um candidato é o Centro de Serviços Medicare e Medicaid (CMS), uma agência federal dos EUA que administra seguros de saúde públicos para idosos e pessoas de baixa renda, entre outros, diz Mello. Ele teria o poder de exigir que organizações de saúde adotem avaliações mais rigorosas de ferramentas de IA como condição para receber pagamentos por meio de programas de seguro público, observa ela, acrescentando que o CMS tem permanecido relativamente intocado pelos recentes cortes federais.

David Ouyang, cardiologista do Cedars-Sinai Medical Center em Los Angeles, Califórnia, também enfatiza o papel que as seguradoras de saúde podem ter no incentivo à realização de testes mais completos de ferramentas de IA. Ele afirma que um dos motivos pelos quais muitas ferramentas aprovadas pela FDA não foram amplamente adotadas é que não são cobertas por planos de saúde.

As seguradoras, acrescenta, podem exigir uma avaliação mais rigorosa como condição para a cobertura. “O nível de exigência para o seguro é, na verdade, mais alto do que o da FDA”, diz ele. “Portanto, existem outras barreiras ao uso da IA.”

doi: https://doi.org/10.1038/d41586-025-01748-y

Fonte: Nature

Artigos Relacionados

Botão Voltar ao Topo