A explosão da inteligência artificial já está começando a se infiltrar no campo médico na forma de resumos de visitas baseados em IA e análise das condições dos pacientes. Agora, novas pesquisas demonstram como técnicas de treinamento de IA semelhantes às usadas para o ChatGPT poderiam ser utilizadas para treinar robôs cirúrgicos a operar por conta própria.
Pesquisadores da Universidade Johns Hopkins e da Universidade de Stanford construíram um modelo de treinamento usando gravações em vídeo de braços robóticos controlados por humanos realizando tarefas cirúrgicas. Ao aprender a imitar ações em um vídeo, os pesquisadores acreditam que podem reduzir a necessidade de programar cada movimento individual necessário para um procedimento. Os robôs aprenderam a manipular agulhas, dar nós e suturar feridas por conta própria. Além disso, os robôs treinados foram além da mera imitação, corrigindo seus próprios erros sem serem instruídos – por exemplo, pegando uma agulha que caiu. Os cientistas já começaram a próxima fase do trabalho: combinar todas as diferentes habilidades em cirurgias completas realizadas em cadáveres de animais.
Para ter certeza, a robótica tem sido usada na sala de cirurgia há anos – em 2018, o meme “cirurgia em uma uva” destacou como braços robóticos podem auxiliar em cirurgias, proporcionando um nível elevado de precisão. Aproximadamente 876.000 cirurgias assistidas por robô foram realizadas em 2020. Instrumentos robóticos podem alcançar lugares e realizar tarefas no corpo onde a mão de um cirurgião nunca caberia, e não sofrem de tremores. Instrumentos finos e precisos podem evitar danos aos nervos. Mas a robótica é tipicamente guiada manualmente por um cirurgião com um controlador. O cirurgião está sempre no comando.
A preocupação dos céticos em relação a robôs mais autônomos é que modelos de IA como o ChatGPT não são “inteligentes”, mas sim simplesmente imitam o que já viram antes e não entendem os conceitos subjacentes com os quais estão lidando. A infinita variedade de patologias em uma variedade incalculável de hospedeiros humanos representa um desafio; e se o modelo de IA não tiver visto um cenário específico antes? Algo pode dar errado durante a cirurgia em um segundo, e e se a IA não tiver sido treinada para responder?
Pelo menos, robôs autônomos usados em cirurgias precisariam ser aprovados pela Administração de Alimentos e Medicamentos. Em outros casos, onde médicos estão usando IA para resumir suas visitas aos pacientes e fazer recomendações, a aprovação da FDA não é necessária porque o médico deve revisar e endossar qualquer informação que produza. Isso é preocupante porque já há evidências de que bots de IA farão recomendações ruins ou alucinarão e incluirão informações em transcrições de reuniões que nunca foram ditas. Com que frequência um médico cansado e sobrecarregado aprovará o que a IA produz sem examiná-lo de perto?
Isso lembra relatos recentes sobre como soldados em Israel estão confiando na IA para identificar alvos de ataque sem examinar as informações muito de perto. “Soldados que foram mal treinados no uso da tecnologia atacaram alvos humanos sem corroborar as previsões da IA”, lê-se em uma matéria do Washington Post. “Em certos momentos, a única corroboracão exigida era que o alvo fosse um homem.” As coisas podem dar errado quando os humanos se tornam complacentes e não estão suficientemente envolvidos.
A saúde é outro campo com altas apostas – certamente mais altas do que o mercado consumidor. Se o Gmail resumir um e-mail incorretamente, não é o fim do mundo. Sistemas de IA diagnosticando incorretamente um problema de saúde ou cometendo um erro durante a cirurgia é um problema muito mais sério. Quem, nesse caso, é responsável? O Post entrevistou o diretor de cirurgia robótica da Universidade de Miami, e isso é o que ele tinha a dizer:
“As apostas são tão altas”, disse ele, “porque isso é uma questão de vida ou morte.” A anatomia de cada paciente difere, assim como a forma como uma doença se comporta em pacientes.
“Eu olho para [as imagens de] tomografias e ressonâncias magnéticas e então faço a cirurgia”, controlando braços robóticos, disse Parekh. “Se você quiser que o robô faça a cirurgia sozinho, ele precisará entender todas as imagens, como ler as tomografias e ressonâncias magnéticas.” Além disso, os robôs precisarão aprender a realizar cirurgias por laparoscopia, que usam incisões muito pequenas.
A ideia de que a IA será algum dia infalível é difícil de levar a sério quando nenhuma tecnologia é perfeita. Certamente, essa tecnologia autônoma é interessante do ponto de vista da pesquisa, mas a repercussão de uma cirurgia mal sucedida realizada por um robô autônomo seria monumental. Quem você pune quando algo dá errado, quem tem sua licença médica revogada? Os humanos também não são infalíveis, mas pelo menos os pacientes têm a tranquilidade de saber que passaram por anos de treinamento e podem ser responsabilizados se algo der errado. Modelos de IA são simulacros rudimentares de humanos, se comportam às vezes de maneira imprevisível e não têm uma bússola moral.
Se os médicos estão cansados e sobrecarregados – uma razão pela qual os pesquisadores sugeriram que essa tecnologia poderia ser valiosa – talvez os problemas sistêmicos que causam a escassez deveriam ser abordados em vez disso. Foi amplamente relatado que os EUA estão enfrentando uma escassez extrema de médicos devido à crescente inacessibilidade da área. O país está a caminho de experimentar uma escassez de 10.000 a 20.000 cirurgiões até 2036, de acordo com a Associação Americana de Faculdades de Medicina.