Оцінка діагностичної ефективності ChatGPT у відділеннях невідкладної допомоги

Відредаговано: Vera Mo

Оцінка діагностичної ефективності ChatGPT у відділеннях невідкладної допомоги

Штучний інтелект (ШІ) все частіше використовується в охороні здоров'я для покращення діагностики та прийняття рішень. Нове дослідження Університету Західної Вірджинії (WVU) вивчає, як ChatGPT працює у відділеннях невідкладної допомоги. Науковці WVU під керівництвом Ганцін «Майкла» Ху оцінили здатність ChatGPT діагностувати пацієнтів за допомогою лікарських записів. Дослідження, опубліковане в Scientific Reports, підкреслює як потенціал, так і обмеження ШІ в екстреній діагностиці.

Метою дослідження було з'ясувати, як різні версії ChatGPT обробляють клінічні дані реального світу. Дослідники використали деідентифіковані записи з 30 випадків невідкладної допомоги. Вони попросили GPT-3.5, GPT-4, GPT-4o та серію o1 запропонувати три діагнози. Точність моделей порівнювалася з фактичними результатами пацієнтів.

ШІ добре працював з класичними симптомами, але мав труднощі з нетиповими випадками. ChatGPT точно запропонував діагнози для пацієнтів з типовими ознаками захворювання. Однак він зазнав невдачі в складних випадках, таких як пневмонія без лихоманки. Це показує труднощі ШІ, коли він стикається з даними, що виходять за межі його звичайних шаблонів навчання.

Поточні моделі ШІ в основному використовують неструктурований текст, як-от лікарські записи. Вони не мають доступу до інших клінічних даних, таких як зображення та результати лабораторних досліджень. Ху припускає, що додавання більшої кількості потоків даних може покращити діагностичну точність ШІ. Це зробить ШІ більш комплексним інструментом клінічної підтримки.

Новіші моделі ChatGPT показали незначне покращення точності. Найкраща рекомендація щодо діагнозу покращилася на 15-20 відсотків. Однак стабільно висока точність все ще залишається проблемою. Це підкреслює необхідність нагляду людини під час використання діагностичних інструментів ШІ.

Дослідження підкреслює, що лікарі повинні контролювати діагностику за допомогою ШІ. Експертиза лікаря має вирішальне значення для інтерпретації результатів ШІ та забезпечення точного догляду за пацієнтами. Це створює систему «гібридного інтелекту». ШІ прискорює аналіз даних, а клініцисти виносять судження.

Ху хоче, щоб системи ШІ були більш прозорими та зрозумілими. ШІ повинен розкривати свої міркування, щоб побудувати довіру з постачальниками медичних послуг. Цей «зрозумілий ШІ» може покращити інтеграцію в клінічні робочі процеси. Зрештою, це покращить результати лікування пацієнтів.

Команда Ху також вивчає багатоагентне моделювання ШІ. Це передбачає, що агенти ШІ відіграють роль експертів у панельних дискусіях. Мета полягає в тому, щоб імітувати спільні діагностичні процеси. Ця розмовна модель може призвести до більш точних оцінок.

Дослідники застерігають, що ChatGPT не є сертифікованим медичним пристроєм. Його не слід використовувати як окреме діагностичне рішення. Моделі ШІ повинні працювати в безпечних системах, що відповідають вимогам, особливо під час використання розширених типів даних. Дотримання правил і конфіденційність пацієнтів є важливими.

Заглядаючи в майбутнє, Ху хоче, щоб дослідження зосереджувалися на здатності ШІ пояснювати свої міркування. Покращена зрозумілість може допомогти з сортуванням і прийняттям рішень щодо лікування. Це може покращити як ефективність, так і безпеку пацієнтів.

Джерела

  • Scienmag: Latest Science and Health News

Знайшли помилку чи неточність?

Ми розглянемо ваші коментарі якомога швидше.