La inteligencia artificial (IA) se utiliza cada vez más en la atención médica para mejorar los diagnósticos y las decisiones. Un nuevo estudio de la Universidad de West Virginia (WVU) examina cómo se desempeña ChatGPT en las salas de emergencia. Científicos de la WVU, dirigidos por Gangqing "Michael" Hu, evaluaron la capacidad de ChatGPT para diagnosticar pacientes utilizando las notas de los médicos. El estudio, publicado en Scientific Reports, destaca tanto el potencial como las limitaciones de la IA en los diagnósticos de emergencia. El estudio tuvo como objetivo ver cómo las diferentes versiones de ChatGPT manejan los datos clínicos del mundo real. Los investigadores utilizaron notas anonimizadas de 30 casos de emergencia. Pidieron a GPT-3.5, GPT-4, GPT-4o y la serie o1 que sugirieran tres diagnósticos. La precisión de los modelos se comparó con los resultados reales de los pacientes. La IA funcionó bien con los síntomas clásicos, pero tuvo dificultades con los casos atípicos. ChatGPT sugirió con precisión diagnósticos para pacientes con signos típicos de la enfermedad. Sin embargo, falló en casos complejos, como la neumonía sin fiebre. Esto muestra la dificultad de la IA cuando se enfrenta a datos fuera de sus patrones de entrenamiento habituales. Los modelos de IA actuales utilizan principalmente texto no estructurado, como las notas de los médicos. Carecen de acceso a otros datos clínicos, como imágenes y resultados de laboratorio. Hu sugiere que agregar más flujos de datos podría mejorar la precisión diagnóstica de la IA. Esto haría de la IA una herramienta de apoyo clínico más completa. Los modelos ChatGPT más nuevos mostraron una ligera mejora en la precisión. La principal recomendación de diagnóstico mejoró entre un 15 y un 20 por ciento. Sin embargo, una precisión consistentemente alta sigue siendo un desafío. Esto destaca la necesidad de supervisión humana al utilizar herramientas de diagnóstico de IA. El estudio enfatiza que los médicos deben supervisar los diagnósticos asistidos por IA. La experiencia del médico es crucial para interpretar los resultados de la IA y garantizar una atención precisa al paciente. Esto crea un sistema de "inteligencia híbrida". La IA acelera el análisis de datos, mientras que los médicos aportan su juicio. Hu quiere que los sistemas de IA sean más transparentes y explicables. La IA debería revelar su razonamiento para generar confianza con los proveedores de atención médica. Esta "IA explicable" puede mejorar la integración en los flujos de trabajo clínicos. En última instancia, esto mejoraría los resultados de los pacientes. El equipo de Hu también está explorando simulaciones de IA multiagente. Esto implica que agentes de IA desempeñen el papel de especialistas en paneles de discusión. El objetivo es imitar los procesos de diagnóstico colaborativos. Este modelo conversacional podría conducir a evaluaciones más precisas. Los investigadores advierten que ChatGPT no es un dispositivo médico certificado. No debe utilizarse como una solución de diagnóstico independiente. Los modelos de IA deben operar en sistemas seguros y compatibles, especialmente cuando se utilizan tipos de datos ampliados. El cumplimiento de las regulaciones y la privacidad del paciente es esencial. De cara al futuro, Hu quiere que la investigación se centre en la capacidad de la IA para explicar su razonamiento. Una mejor explicabilidad podría ayudar con las decisiones de triaje y tratamiento. Esto podría mejorar tanto la eficiencia como la seguridad del paciente.
Evaluación del rendimiento diagnóstico de ChatGPT en los departamentos de emergencia
Editado por: Vera Mo
Fuentes
Scienmag: Latest Science and Health News
Lea más noticias sobre este tema:
¿Encontró un error o inexactitud?
Consideraremos sus comentarios lo antes posible.