Médicos Foram Piores em Detectar Câncer Após Confiar em IA, Descoberta de Estudo

Ferramentas de inteligência artificial têm mostrado ajudar os médicos a detectar crescimentos pré-cancerígenos no cólon—mas não pense em retirar essas ferramentas uma vez que você as introduziu. Um novo estudo publicado esta semana na The Lancet descobriu que médicos que recebem ferramentas de IA para auxiliar na identificação de riscos potenciais de câncer em pacientes ficam piores ao fazer essas mesmas observações quando voltam a fazê-lo sem a ajuda da IA.

O estudo analisou quatro centros de endoscopia na Polônia, rastreando as taxas de sucesso na detecção de câncer colorretal por três meses antes da introdução das ferramentas de IA e três meses depois. Uma vez que a IA foi introduzida, as colonoscopias foram aleatoriamente atribuídas para receber suporte de IA ou não. Os pesquisadores descobriram que os médicos que realizaram colonoscopias sem IA após terem a assistência disponível viram suas taxas de detecção cair, produzindo resultados 20% piores do que antes da introdução da IA.

Tornando os resultados ainda mais preocupantes, os 19 médicos que participaram do estudo eram todos muito experientes e haviam realizado mais de 2.000 colonoscopias cada. Se esses médicos podem ser vítimas da desqualificação, vendo suas próprias habilidades erodirem devido à dependência de ferramentas de IA, os resultados de médicos inexperientes podem ser ainda piores.

Não há dúvida de que as ferramentas de IA podem ajudar em ambientes médicos. Existem numerosos estudos que sugerem que a IA pode facilitar tudo, desde a detecção de cânceres até o diagnóstico de doenças com base no histórico médico de um paciente. Analisar informações com base em uma riqueza de exemplos anteriores é meio que a especialidade da IA (você sabe, ao contrário de gerar conteúdo sem sentido), e há evidências que sugerem que os humanos podem aumentar suas próprias habilidades usando ferramentas de IA. Estudos em ambientes médicos descobriram que médicos que usam essas ferramentas podem produzir melhores resultados para seus pacientes.

Mas ninguém, incluindo médicos, está imune ao risco de desligar o cérebro e confiar na IA em vez de suas próprias habilidades. No início deste ano, a Microsoft publicou um estudo que descobriu que trabalhadores do conhecimento que se apoiam na IA param de pensar criticamente sobre o trabalho que estão fazendo e sentem confiança de que a assistência da IA será suficiente para concluir a tarefa. Pesquisadores do MIT descobriram de forma semelhante que confiar no ChatGPT para redação de ensaios resultou em menos engajamento crítico com o material. A longo prazo, há um risco real de que a dependência da IA eroda nossa capacidade de resolver problemas e raciocinar, o que não é ideal quando a IA continua a gerar informações ruins.

A American Medical Association descobriu que cerca de dois em cada três médicos já adotaram a IA para aumentar suas habilidades. Esperamos que eles ainda consigam identificar quando a IA faz algo como alucinar uma parte do corpo que não existe.

Fonte

Compartilhe esse conteúdo: