Médicos dizem que a IA está introduzindo imprecisão nos cuidados com os pacientes

De vez em quando, um estudo é publicado proclamando que a IA é melhor em diagnosticar problemas de saúde do que um médico humano. Esses estudos são atraentes porque o sistema de saúde nos Estados Unidos está terrivelmente quebrado e todos estão em busca de soluções. A IA apresenta uma oportunidade potencial de tornar os médicos mais eficientes, fazendo muito do trabalho administrativo para eles e, assim, dando-lhes tempo para atender mais pacientes e, portanto, reduzir o custo final do atendimento. Também há a possibilidade de que a tradução em tempo real ajude os falantes não nativos a obterem melhor acesso. Para as empresas de tecnologia, a oportunidade de atender a indústria da saúde pode ser bastante lucrativa.

Na prática, no entanto, parece que ainda não estamos próximos de substituir médicos por inteligência artificial, ou mesmo realmente aumentá-los. O Washington Post conversou com vários especialistas, incluindo médicos, para ver como os primeiros testes de IA estão indo, e os resultados não foram reconfortantes.

Aqui está um trecho de um professor clínico, Christopher Sharp, da Stanford Medical, usando o GPT-4o para elaborar uma recomendação para um paciente que contatou seu escritório:

Sharp escolhe uma consulta de paciente aleatória. Ela diz: “Comi um tomate e meus lábios estão coçando. Alguma recomendação?”

A IA, que usa uma versão do GPT-4o da OpenAI, elabora uma resposta: “Sinto muito em saber sobre seus lábios coçando. Parece que você pode estar tendo uma leve reação alérgica ao tomate.” A IA recomenda evitar tomates, usar um anti-histamínico oral — e usar um creme tópico esteroide.

Sharp olha para a tela por um momento. “Clinicamente, não concordo com todos os aspectos dessa resposta”, diz ele.

“Evitar tomates, eu concordaria totalmente. Por outro lado, cremes tópicos como um hidrocortisona leve nos lábios não seriam algo que eu recomendaria”, diz Sharp. “Os lábios são um tecido muito fino, então temos muito cuidado ao usar cremes esteroides.

“Eu apenas removeria essa parte.”

Aqui está outra, da professora de medicina e ciência de dados da Stanford, Roxana Daneshjou:

Ela abre seu laptop para o ChatGPT e digita uma pergunta de paciente teste. “Caro doutor, estive amamentando e acho que desenvolvi mastite. Meu seio está vermelho e dolorido.” O ChatGPT responde: Use compressas quentes, faça massagens e amamente mais.

Mas isso está errado, diz Daneshjou, que também é dermatologista. Em 2022, a Academia de Medicina de Amamentação recomendou o oposto: compressas frias, abster-se de massagens e evitar superestímulos.

O problema com os otimistas da tecnologia que empurram a IA para campos como a saúde é que não é o mesmo que fazer software de consumo. Já sabemos que o assistente Copilot 365 da Microsoft tem bugs, mas um pequeno erro em sua apresentação do PowerPoint não é um grande problema. Cometer erros na saúde pode matar pessoas. Daneshjou disse ao Post que testou o ChatGPT com 80 outros, incluindo cientistas da computação e médicos, fazendo perguntas médicas ao ChatGPT, e descobriu que ele ofereceu respostas perigosas vinte por cento das vezes. “Vinte por cento de respostas problemáticas não são, para mim, boas o suficiente para uso diário real no sistema de saúde”, disse ela.

Claro, os defensores dirão que a IA pode aumentar o trabalho de um médico, não substituí-lo, e eles devem sempre verificar as saídas. E é verdade, a história do Post entrevistou um médico da Stanford que disse que dois terços dos médicos lá com acesso a uma plataforma registram e transcrevem reuniões com pacientes com IA para que possam olhar nos olhos durante a visita e não ficar olhando para baixo, fazendo anotações. Mas mesmo lá, a tecnologia Whisper da OpenAI parece inserir informações completamente inventadas em algumas gravações. Sharp disse que o Whisper inseriu erroneamente em uma transcrição que um paciente atribuiu uma tosse à exposição ao filho, o que eles nunca disseram. Um exemplo incrível de viés dos dados de treinamento que Daneshjou encontrou nos testes foi que uma ferramenta de transcrição de IA assumiu que um paciente chinês era programador de computadores sem que o paciente nunca tivesse oferecido tal informação.

A IA poderia potencialmente ajudar o campo da saúde, mas suas saídas precisam ser verificadas minuciosamente, e então quanto tempo os médicos realmente estão economizando? Além disso, os pacientes precisam confiar que seu médico está realmente verificando o que a IA está produzindo — os sistemas hospitalares precisarão implementar verificações para garantir que isso esteja acontecendo, ou então a complacência pode se infiltrar.

Fundamentalmente, a IA generativa é apenas uma máquina de previsão de palavras, pesquisando grandes quantidades de dados sem realmente entender os conceitos subjacentes que está retornando. Não é “inteligente” da mesma forma que um ser humano real, e não é especialmente capaz de entender as circunstâncias únicas de cada indivíduo específico; está retornando informações que generalizou e viu antes.

“Eu realmente acho que esta é uma daquelas tecnologias promissoras, mas simplesmente não está lá ainda,” disse Adam Rodman, um médico de medicina interna e pesquisador de IA no Beth Israel Deaconess Medical Center. “Estou preocupado que vamos apenas degradar ainda mais o que fazemos colocando ‘lixo da IA’ alucinado em cuidados de pacientes de alto risco.”

Da próxima vez que você visitar seu médico, pode valer a pena perguntar se eles estão usando IA em seu fluxo de trabalho.

Fonte

Compartilhe esse conteúdo: