Чатботи на основі штучного інтелекту намагаються стати наступною великою революцією у сфері охорони здоров’я, проходячи стандартизовані тести та надаючи поради щодо ваших медичних проблем. Але нове дослідження, опубліковане у Nature Medicine, показало, що вони не лише дуже далекі від цього, а й можуть бути небезпечними. Дослідження, яке очолили кілька команд з Оксфордського університету, виявило суттєвий розрив у можливостях великих мовних моделей (ВММ). Хоча вони були технічно дуже просунутими у медичних знаннях, вони не справлялися з допомогою користувачам у вирішенні особистих медичних проблем, встановили дослідники. «Попри всю популярність, штучний інтелект ще не готовий виконувати роль лікаря», — сказала доктор Ребекка Пейн, головний медичний фахівець у дослідженні, у прес-релізі, що оголосив його результати. Вона додала, що «пацієнти повинні усвідомлювати, що запитання великій мовній моделі про свої симптоми може бути небезпечним, оскільки вона може поставити неправильний діагноз і не розпізнати, коли потрібна термінова допомога». У дослідженні взяли участь 1300 осіб, які використовували моделі штучного інтелекту від OpenAI, Meta та Cohere для визначення стану здоров’я. Вони описали низку сценаріїв, розроблених лікарями, і просили систему AI підказати, що робити далі для вирішення медичної проблеми.
Дослідження показало, що результати були не кращими за традиційні методи самодіагностики, такі як простий пошук в Інтернеті або особиста оцінка. Також було виявлено, що користувачі не завжди розуміли, яку саме інформацію потрібно надати ВММ для отримання точної поради. Їм пропонувалися поради як хороші, так і погані, що ускладнювало визначення подальших кроків. Decrypt звернувся до OpenAI, Meta та Cohere за коментарями і оновить цю статтю, якщо вони відповісти.
«Як лікар, я знаю, що правильний діагноз — це не просто пам’ятати факти. Медицина — це і мистецтво, і наука. Важливо слухати, досліджувати, уточнювати, перевіряти розуміння і керувати розмовою», — сказала Пейн у коментарі Decrypt. «Лікарі активно з’ясують релевантні симптоми, оскільки пацієнти часто не знають, які деталі мають значення», — пояснила вона, додавши, що дослідження показало, що ВММ «ще не здатні надійно керувати такою динамічною взаємодією з непрофесіоналами». Команда зробила висновок, що штучний інтелект наразі не підходить для надання медичних порад, і потрібні нові системи оцінки, щоб його правильно використовувати у сфері охорони здоров’я. Однак це не означає, що він не має місця у медичній галузі. Хоча ВММ «безумовно мають роль у сфері охорони здоров’я», — сказала Пейн, — це має бути «секретар, а не лікар». Технологія має переваги у «сумуванні та перепакуванні вже наданої інформації», і ВММ вже використовуються у клінічних кабінетах для «транскрипції консультацій і переформатування цієї інформації у листа до спеціаліста, інформаційного листа для пацієнта або для медичних записів», пояснила вона. Команда зробила висновок, що, хоча вони не проти використання ШІ у медицині, вони сподіваються, що це дослідження допоможе краще спрямувати його розвиток у правильному напрямку.