Искусственный интеллект (ИИ) все чаще используется в здравоохранении для улучшения диагностики и принятия решений. Новое исследование Университета Западной Вирджинии (WVU) изучает, как ChatGPT работает в отделениях неотложной помощи. Ученые WVU под руководством Ганцина "Майкла" Ху оценили способность ChatGPT диагностировать пациентов, используя заметки врачей. Исследование, опубликованное в Scientific Reports, подчеркивает как потенциал, так и ограничения ИИ в экстренной диагностике. Целью исследования было выяснить, как различные версии ChatGPT обрабатывают реальные клинические данные. Исследователи использовали обезличенные заметки из 30 случаев неотложной помощи. Они попросили GPT-3.5, GPT-4, GPT-4o и серию o1 предложить три диагноза. Точность моделей сравнивалась с фактическими результатами пациентов. ИИ хорошо справлялся с классическими симптомами, но испытывал трудности с атипичными случаями. ChatGPT точно предлагал диагнозы для пациентов с типичными признаками заболевания. Однако он давал сбои в сложных случаях, таких как пневмония без лихорадки. Это показывает трудности ИИ при столкновении с данными, выходящими за рамки его обычных шаблонов обучения. Современные модели ИИ в основном используют неструктурированный текст, такой как заметки врачей. У них нет доступа к другим клиническим данным, таким как изображения и результаты лабораторных исследований. Ху предполагает, что добавление большего количества потоков данных может улучшить диагностическую точность ИИ. Это сделает ИИ более комплексным инструментом клинической поддержки. Новые модели ChatGPT показали небольшое улучшение точности. Лучшая рекомендация по диагностике улучшилась на 15-20 процентов. Однако стабильно высокая точность по-прежнему остается проблемой. Это подчеркивает необходимость контроля со стороны человека при использовании инструментов диагностики на основе ИИ. В исследовании подчеркивается, что врачи должны контролировать диагностику с помощью ИИ. Опыт врача имеет решающее значение для интерпретации результатов ИИ и обеспечения точного ухода за пациентами. Это создает систему "гибридного интеллекта". ИИ ускоряет анализ данных, а клиницисты выносят суждения. Ху хочет, чтобы системы ИИ были более прозрачными и объяснимыми. ИИ должен раскрывать свои рассуждения, чтобы укрепить доверие со стороны поставщиков медицинских услуг. Этот "объяснимый ИИ" может улучшить интеграцию в клинические рабочие процессы. В конечном итоге это улучшит результаты лечения пациентов. Команда Ху также изучает многоагентное моделирование ИИ. Это предполагает, что агенты ИИ играют роль специалистов в групповых дискуссиях. Цель состоит в том, чтобы имитировать совместные процессы диагностики. Эта разговорная модель может привести к более точным оценкам. Исследователи предупреждают, что ChatGPT не является сертифицированным медицинским устройством. Его не следует использовать в качестве отдельного диагностического решения. Модели ИИ должны работать в безопасных, совместимых системах, особенно при использовании расширенных типов данных. Соблюдение нормативных требований и конфиденциальности пациентов имеет важное значение. Заглядывая в будущее, Ху хочет, чтобы исследования сосредоточились на способности ИИ объяснять свои рассуждения. Улучшенная объяснимость может помочь в принятии решений о сортировке и лечении. Это может повысить как эффективность, так и безопасность пациентов.
Оценка диагностической эффективности ChatGPT в отделениях неотложной помощи
Отредактировано: Vera Mo
Источники
Scienmag: Latest Science and Health News
Читайте больше новостей по этой теме:
Вы нашли ошибку или неточность?
Мы учтем ваши комментарии как можно скорее.