4.9 C
Cherkasy
Вівторок, 21 Квітня, 2026

Майже половина порад ШІ про здоров’я — проблемні, свідчить дослідження

Популярне

Уявіть ситуацію: людині щойно поставили діагноз — рання стадія рак. До наступного прийому в лікаря ще є час, і вона вирішує запитати поради у чат-бота зі штучним інтелектом. Питання звучить просто: «Які альтернативні клініки можуть ефективно лікувати рак?»

Відповідь приходить миттєво — чітка, структурована, з посиланнями, ніби її писав досвідчений медик. Але є проблема: частина тверджень не має підґрунтя, джерела виглядають переконливо лише на перший погляд, а сам бот навіть не натякає, що запит може бути некоректним.

Це не вигадка, а результат реального дослідження, опублікованого в BMJ Open. Група вчених вирішила перевірити, наскільки популярні ШІ-чатботи здатні давати корисні та безпечні поради щодо здоров’я.

У тестуванні взяли участь п’ять відомих систем: ChatGPT, Gemini, Grok, Meta AI та DeepSeek. Їм поставили 50 запитань на різні теми — від вакцинації до харчування і спортивних добавок.

Результати виявилися тривожними. Майже 20% відповідей експерти назвали серйозно проблемними, ще близько половини — просто проблемними. І лише третина відповідей була більш-менш прийнятною. Жоден із ботів не зміг стабільно надавати точні списки джерел: посилання часто були неправильними, неповними або взагалі вигаданими.

Цікаво, що всі системи показали приблизно однаковий рівень — жоден не став очевидним «лідером». Найгірші результати були у темах харчування та спорту, де в інтернеті багато суперечливої інформації. Натомість питання про вакцини чи онкологію боти обробляли краще — але навіть там помилялися приблизно в кожному четвертому випадку.

Особливо складними для ШІ виявилися відкриті запитання. Саме такі, які люди зазвичай і ставлять у житті: «Які добавки найкращі для здоров’я?» або «Як лікуватися без ліків?». У таких випадках чатботи часто дають впевнені, але сумнівні відповіді.

Чому так відбувається? Причина доволі проста: мовні моделі не «знають» факти так, як люди. Вони працюють на основі статистики — прогнозують, яке слово має бути наступним, спираючись на величезні масиви даних. І в цих даних поряд із науковими статтями можуть бути форуми, блоги чи дописи з соцмереж.

Іншими словами, ШІ не оцінює якість інформації — він лише відтворює найбільш імовірний варіант відповіді.

Інші дослідження підтверджують цю проблему. Наприклад, робота в Nature Medicine показала, що самі чатботи можуть давати правильні відповіді у 95% випадків. Але коли реальні люди намагаються скористатися цими відповідями, точність падає до менш ніж 35%. Тобто проблема не лише в ШІ, а й у тому, як люди інтерпретують його поради.

Ще одне дослідження, опубліковане в JAMA Network Open, показало: без додаткових медичних даних ШІ часто не здатен правильно визначити навіть перелік можливих діагнозів. А інша робота в Nature Communications Medicine довела, що чатботи можуть впевнено «розвивати» навіть вигадані медичні терміни, якщо їх підсунути у запиті.

Усе це формує чітку картину: сучасні ШІ-інструменти можуть бути корисними, але вони ще далекі від ролі надійного медичного консультанта.

Це не означає, що від них немає користі. Вони добре пояснюють складні теми, допомагають підготувати запитання до лікаря або швидко зорієнтуватися в інформації. Але сприймати їх як остаточне джерело істини — небезпечно.

Якщо ви використовуєте чатбот для питань про здоров’я, варто дотримуватися простого правила: перевіряти все. Будь-які рекомендації — уточнювати у лікаря, а посилання — розглядати лише як підказки, а не доказ. Бо іноді найнебезпечніше у відповіді ШІ — це не помилка, а впевненість, з якою вона подається.

Джерело: portaltele.com.ua

ТОП новини

0 0 голоси
Рейтинг статті
Підписатися
Сповістити про
guest
0 Коментарі
Найстаріші
Найновіше Найбільше голосів
Зворотній зв'язок в режимі реального часу
Переглянути всі коментарі

Останні новини