Desempenho Diagnóstico do ChatGPT Avaliado em Departamentos de Emergência

Editado por: Vera Mo

A inteligência artificial (IA) está sendo cada vez mais utilizada na área da saúde para melhores diagnósticos e decisões. Um novo estudo da Universidade de West Virginia (WVU) examina como o ChatGPT se comporta em salas de emergência. Cientistas da WVU, liderados por Gangqing "Michael" Hu, avaliaram a capacidade do ChatGPT de diagnosticar pacientes usando as anotações dos médicos. O estudo, publicado na Scientific Reports, destaca tanto o potencial quanto as limitações da IA em diagnósticos de emergência. O estudo teve como objetivo verificar como diferentes versões do ChatGPT lidam com dados clínicos do mundo real. Os pesquisadores usaram anotações anonimizadas de 30 casos de emergência. Eles pediram ao GPT-3.5, GPT-4, GPT-4o e à série o1 para sugerirem três diagnósticos. A precisão dos modelos foi comparada aos resultados reais dos pacientes. A IA teve um bom desempenho com sintomas clássicos, mas teve dificuldades com casos atípicos. O ChatGPT sugeriu com precisão diagnósticos para pacientes com sinais típicos da doença. No entanto, falhou em casos complexos, como pneumonia sem febre. Isso mostra a dificuldade da IA quando confrontada com dados fora de seus padrões de treinamento habituais. Os modelos de IA atuais usam principalmente texto não estruturado, como as anotações dos médicos. Eles não têm acesso a outros dados clínicos, como imagens e resultados de exames laboratoriais. Hu sugere que adicionar mais fluxos de dados poderia melhorar a precisão diagnóstica da IA. Isso tornaria a IA uma ferramenta de suporte clínico mais abrangente. Os modelos ChatGPT mais recentes mostraram uma ligeira melhora na precisão. A principal recomendação de diagnóstico melhorou de 15 a 20 por cento. No entanto, uma precisão consistentemente alta ainda é um desafio. Isso destaca a necessidade de supervisão humana ao usar ferramentas de diagnóstico de IA. O estudo enfatiza que os médicos devem supervisionar os diagnósticos assistidos por IA. A experiência do médico é crucial para interpretar os resultados da IA e garantir um atendimento preciso ao paciente. Isso cria um sistema de "inteligência híbrida". A IA acelera a análise de dados, enquanto os clínicos fornecem julgamento. Hu quer que os sistemas de IA sejam mais transparentes e explicáveis. A IA deve revelar seu raciocínio para construir confiança com os profissionais de saúde. Essa "IA explicável" pode melhorar a integração nos fluxos de trabalho clínicos. Em última análise, isso melhoraria os resultados dos pacientes. A equipe de Hu também está explorando simulações de IA multiagente. Isso envolve agentes de IA desempenhando o papel de especialistas em painéis de discussão. O objetivo é imitar processos de diagnóstico colaborativos. Esse modelo conversacional pode levar a avaliações mais precisas. Os pesquisadores alertam que o ChatGPT não é um dispositivo médico certificado. Não deve ser usado como uma solução de diagnóstico independente. Os modelos de IA devem operar em sistemas seguros e compatíveis, especialmente ao usar tipos de dados expandidos. O cumprimento das regulamentações e a privacidade do paciente são essenciais. Olhando para o futuro, Hu quer que a pesquisa se concentre na capacidade da IA de explicar seu raciocínio. Uma melhor explicabilidade pode ajudar nas decisões de triagem e tratamento. Isso pode melhorar tanto a eficiência quanto a segurança do paciente.

Fontes

  • Scienmag: Latest Science and Health News

Encontrou um erro ou imprecisão?

Vamos considerar seus comentários assim que possível.