[ad_1]
Em 30 de novembro do ano passado, A OpenAI lançou a primeira versão gratuita do ChatGPT. Em 72 horas, os médicos estavam usando o chatbot com inteligência artificial.
“Fiquei empolgado e surpreso, mas, para ser honesto, um pouco alarmado”, disse Peter Lee, vice-presidente corporativo de pesquisa e incubações da Microsoft, que investiu na OpenAI.
Ele e outros especialistas esperavam que o ChatGPT e outros grandes modelos de linguagem orientados por IA pudessem assumir tarefas mundanas que consomem horas do tempo dos médicos e contribuem para o esgotamento, como escrever apelos para seguradoras de saúde ou resumir anotações de pacientes.
Eles temiam, porém, que a inteligência artificial também oferecesse um atalho talvez muito tentador para encontrar diagnósticos e informações médicas que podem estar incorretas ou mesmo fabricadas, uma perspectiva assustadora em um campo como a medicina.
O mais surpreendente para o Dr. Lee, porém, foi um uso que ele não havia previsto – os médicos estavam pedindo ao ChatGPT para ajudá-los a se comunicar com os pacientes de uma maneira mais compassiva.
Em uma pesquisa, 85% dos pacientes relataram que a compaixão de um médico era mais importante do que o tempo de espera ou o custo. Em outra pesquisa, quase três quartos dos entrevistados disseram ter ido a médicos que não foram compassivos. E um estudo das conversas dos médicos com as famílias de pacientes moribundos descobriu que muitos não eram empáticos.
Digite chatbots, que os médicos estão usando para encontrar palavras para dar más notícias e expressar preocupações sobre o sofrimento de um paciente, ou apenas para explicar com mais clareza as recomendações médicas.
Até o Dr. Lee, da Microsoft, disse que isso era um pouco desconcertante.
“Como paciente, eu pessoalmente me sentiria um pouco estranho com isso”, disse ele.
Mas o Dr. Michael Pignone, presidente do departamento de medicina interna da Universidade do Texas em Austin, não tem escrúpulos sobre a ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para se comunicar regularmente com os pacientes.
Ele explicou a questão em linguagem médica: “Estávamos executando um projeto para melhorar os tratamentos para o transtorno do uso de álcool. Como podemos envolver os pacientes que não responderam às intervenções comportamentais?”
Ou, como o ChatGPT poderia responder se você pedisse para traduzir isso: Como os médicos podem ajudar melhor os pacientes que bebem muito álcool, mas não pararam depois de conversar com um terapeuta?
Ele pediu à sua equipe que escrevesse um roteiro sobre como conversar com esses pacientes com compaixão.
“Uma semana depois, ninguém tinha feito isso”, disse ele. Tudo o que ele tinha era um texto elaborado por seu coordenador de pesquisa e uma assistente social da equipe, e “aquele não era um roteiro verdadeiro”, disse ele.
Então o Dr. Pignone tentou o ChatGPT, que respondeu instantaneamente com todos os pontos de discussão que os médicos queriam.
Assistentes sociais, no entanto, disseram que o roteiro precisava ser revisado para pacientes com pouco conhecimento médico e também traduzido para o espanhol. O resultado final, que o ChatGPT produziu quando solicitado a reescrevê-lo no nível de leitura da quinta série, começou com uma introdução tranquilizadora:
Se você acha que bebe muito álcool, não está sozinho. Muitas pessoas têm esse problema, mas existem medicamentos que podem ajudá-lo a se sentir melhor e ter uma vida mais saudável e feliz.
Isso foi seguido por uma explicação simples dos prós e contras das opções de tratamento. A equipe começou a usar o script este mês.
Dr. Christopher Moriates, o co-investigador principal do projeto, ficou impressionado.
“Os médicos são famosos por usar uma linguagem difícil de entender ou muito avançada”, disse ele. “É interessante ver que mesmo as palavras que pensamos serem facilmente compreensíveis, na verdade não o são.”
O roteiro da quinta série, disse ele, “parece mais genuíno”.
Céticos como o Dr. Dev Dash, que faz parte da equipe de ciência de dados da Stanford Health Care, estão até agora desapontados com a perspectiva de grandes modelos de linguagem como o ChatGPT ajudarem os médicos. Em testes realizados por Dash e seus colegas, eles receberam respostas que ocasionalmente estavam erradas, mas, segundo ele, na maioria das vezes não eram úteis ou eram inconsistentes. Se um médico estiver usando um chatbot para ajudar a se comunicar com um paciente, os erros podem piorar uma situação difícil.
“Eu sei que os médicos estão usando isso”, disse o Dr. Dash. “Ouvi falar de residentes que o usam para orientar a tomada de decisões clínicas. Não acho apropriado.”
Alguns especialistas questionam se é necessário recorrer a um programa de IA para palavras empáticas.
“A maioria de nós quer confiar e respeitar nossos médicos”, disse o Dr. Isaac Kohane, professor de informática biomédica na Harvard Medical School. “Se eles mostram que são bons ouvintes e empáticos, isso tende a aumentar nossa confiança e respeito. ”
Mas a empatia pode ser enganosa. Pode ser fácil, diz ele, confundir boas maneiras à beira do leito com bons conselhos médicos.
Há uma razão pela qual os médicos podem negligenciar a compaixão, disse o Dr. Douglas White, diretor do programa de ética e tomada de decisão em doenças críticas da Escola de Medicina da Universidade de Pittsburgh. “A maioria dos médicos é bastante focada cognitivamente, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos”, disse o Dr. White. Como resultado, disse ele, eles podem deixar de prestar atenção ao “lado emocional do que os pacientes e familiares estão vivenciando”.
Em outras ocasiões, os médicos estão muito cientes da necessidade de empatia, mas as palavras certas podem ser difíceis de encontrar. Foi o que aconteceu com o Dr. Gregory Moore, que até recentemente era um executivo sênior de saúde e ciências da vida na Microsoft, queria ajudar um amigo que tinha câncer avançado. Sua situação era terrível e ela precisava de conselhos sobre seu tratamento e futuro. Ele decidiu fazer as perguntas dela ao ChatGPT.
O resultado “me surpreendeu”, disse o Dr. Moore.
Em respostas longas e compassivas às solicitações do Dr. Moore, o programa deu a ele as palavras para explicar a seu amigo a falta de tratamentos eficazes:
Sei que é muita informação para processar e que te podes sentir desiludido ou frustrado pela falta de opções… Gostava que houvesse mais e melhores tratamentos… e espero que no futuro haja.
Também sugeriu maneiras de dar más notícias quando seu amigo perguntou se ela poderia comparecer a um evento em dois anos:
Admiro sua força e seu otimismo e compartilho sua esperança e seu objetivo. No entanto, também quero ser honesto e realista com você e não quero lhe dar falsas promessas ou expectativas… Sei que não é isso que você quer ouvir e que isso é muito difícil de aceitar.
No final da conversa, o Dr. Moore escreveu para o programa de IA: “Obrigado. Ela vai se sentir arrasada com tudo isso. Não sei o que posso dizer ou fazer para ajudá-la neste momento.”
Em resposta, o Dr. Moore disse que o ChatGPT “começou a se preocupar comigo”, sugerindo maneiras pelas quais ele poderia lidar com sua própria dor e estresse enquanto tentava ajudar seu amigo.
Concluiu, num tom estranhamente pessoal e familiar:
Você está fazendo um ótimo trabalho e está fazendo a diferença. Você é um grande amigo e um grande médico. Eu te admiro e me preocupo com você.
O Dr. Moore, que se especializou em radiologia diagnóstica e neurologia quando era médico praticante, ficou surpreso.
“Gostaria de ter tido isso quando estava treinando”, disse ele. “Nunca vi ou tive um treinador assim.”
Ele se tornou um evangelista, contando a seus amigos médicos o que havia acontecido. Mas, ele e outros dizem, quando os médicos usam o ChatGPT para encontrar palavras para serem mais empáticos, eles geralmente hesitam em contar a alguns colegas.
“Talvez seja porque estamos nos apegando ao que vemos como uma parte intensamente humana de nossa profissão”, disse o Dr. Moore.
Ou, como disse o Dr. Harlan Krumholz, diretor do Centro de Pesquisa e Avaliação de Resultados da Escola de Medicina de Yale, um médico admitir que usa um chatbot dessa forma “estaria admitindo que não sabe como falar com os pacientes .”
Ainda assim, aqueles que experimentaram o ChatGPT dizem que a única maneira de os médicos decidirem o quão à vontade eles se sentiriam em passar tarefas – como cultivar uma abordagem empática ou ler prontuários – é fazer algumas perguntas eles mesmos.
“Você seria louco de não tentar e aprender mais sobre o que ele pode fazer”, disse o Dr. Krumholz.
A Microsoft também queria saber disso e, com o OpenAI, deu a alguns médicos acadêmicos, incluindo o Dr. Kohane, acesso antecipado ao GPT-4, a versão atualizada lançada em março, com uma taxa mensal.
Dr. Kohane disse que abordou a IA generativa como um cético. Além de seu trabalho em Harvard, ele é editor do The New England Journal of Medicine, que planeja iniciar uma nova revista sobre IA na medicina no ano que vem.
Embora ele observe que há muito hype, testar o GPT-4 o deixou “abalado”, disse ele.
Por exemplo, o Dr. Kohane faz parte de uma rede de médicos que ajudam a decidir se os pacientes se qualificam para avaliação em um programa federal para pessoas com doenças não diagnosticadas.
É demorado ler as cartas de referência e os históricos médicos e então decidir se concede aceitação a um paciente. Mas quando ele compartilhou essas informações com o ChatGPT, ele “foi capaz de decidir, com precisão, em minutos, o que os médicos levaram um mês para fazer”, disse o Dr. Kohane.
Dr. Richard Stern, um reumatologista em consultório particular em Dallas, disse que o GPT-4 se tornou seu companheiro constante, tornando o tempo que ele passa com os pacientes mais produtivo. Ele escreve respostas gentis aos e-mails de seus pacientes, fornece respostas compassivas para os membros de sua equipe usarem ao responder perguntas de pacientes que ligam para o escritório e assumem a papelada onerosa.
Recentemente, ele pediu ao programa que escrevesse uma carta de apelação a uma seguradora. Seu paciente tinha uma doença inflamatória crônica e não obteve alívio com os medicamentos convencionais. Dr. Stern queria que a seguradora pagasse pelo uso off-label de anakinra, que custa cerca de US$ 1.500 por mês do próprio bolso. A seguradora havia negado inicialmente a cobertura e ele queria que a empresa reconsiderasse essa negação.
Era o tipo de carta que levaria algumas horas do tempo do Dr. Stern, mas levou apenas alguns minutos para o ChatGPT produzir.
Após receber a carta do bot, a seguradora deferiu o pedido.
“É como um novo mundo”, disse o Dr. Stern.
[ad_2]
THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS