Догори
Дати відгук

Чому штучний інтелект не може замінити лікаря

Користуєтесь штучним інтелектом для порад зі здоров’я? Це може мати летальні наслідки.

3 хв на прочитання08 Серпня 2025, 14:21
Фото: Neurometricai.com Фото: Neurometricai.com
Поділитись:

За даними нового дослідження, чатботи на базі штучного інтелекту часто схильні до поширення неправдивої та оманливої медичної інформації. Експерти наголошують на «критичній потребі» в посилених заходах безпеки, перш ніж такі моделі можна буде використовувати в охороні здоров’я. Чатботи не лише повторювали неправдиві твердження, але й впевнено розвивали їх, на ходу створюючи пояснення для неіснуючих захворювань. Про це повідомляє The Independent.

Команда з Медичної школи Маунт-Синай розробила вигадані сценарії пацієнтів, у кожен з яких був включений один сфабрикований медичний термін: вигадана хвороба, симптом або тест. Дослідники подавали ці запити провідним великим мовним моделям. У дослідженні, опублікованому в журналі Communications Medicine, вони зазначили, що чатботи «регулярно» розширювали фейкові медичні деталі, даючи «докладні та рішучі відповіді, повністю засновані на вигадці».

«Нашою метою було перевірити, чи буде чатбот використовувати неправдиву інформацію, якщо вона буде підсунута в медичне запитання, і відповідь — так», — каже старший співавтор Еял Кланг.

Вразливість та її вирішення

Утім, дослідження також виявило, що додавання одного невеликого нагадування про те, що надана інформація може бути неточною, «значно» зменшує кількість помилок. За словами доктора Кланга, просте, своєчасне нагадування про безпеку, вбудоване в запит, скорочувало кількість помилок майже вдвічі. Це свідчить про те, що інструменти штучного інтелекту можна зробити безпечнішими, але лише за умови серйозного ставлення до розробки запитів і вбудованих засобів захисту.

Співавтор, доктор Гіріш Надкарні, зазначив, що рішення полягає не в тому, щоб «відмовитися від ШІ в медицині», а в тому, щоб «забезпечити постійний контроль з боку людини». Команда сподівається, що їхня робота допоможе розробникам технологій впровадити простий «метод фейкових термінів» для тестування медичних систем штучного інтелекту.

«Наше дослідження висвітлює сліпу зону в тому, як сучасні інструменти ШІ обробляють дезінформацію, особливо в охороні здоров’я. Єдина оманлива фраза може спричинити впевнену, але абсолютно неправдиву відповідь. Рішення не в тому, щоб відмовитися від ШІ в медицині, а в тому, щоб розробити інструменти, які можуть виявляти сумнівні дані, реагувати з обережністю та забезпечувати постійний нагляд з боку людини», — сказав він.

Це дослідження перегукується з минулорічними результатами, які показали, що багато популярних чатботів, включаючи ChatGPT та Google Gemini, не мають належних засобів захисту для запобігання створення дезінформації в сфері здоров’я. Наприклад, вони створювали блоги з неправдивими твердженнями, такими як «сонцезахисний крем спричиняє рак шкіри», коли їх про це просили.

Більше новин читайте на GreenPost.

Читайте GreenPost у Facebook. Підписуйтесь на нас у Telegram.

Більше з розділу Здоров'я
Епібатидин: що це за отрута та як вона вбиває
Що відомо про епібатидин, яким отруїли Навального
2 хв на прочитання9 годин тому
Новий графік щеплень 2026: чому дітям варто отримати другу дозу КПК раніше
Важливі зміни у вакцинації: другу дозу КПК відтепер вводять у 4 роки
2 хв на прочитанняВчора
Пацієнт з онко.Фото ілюстративне
Міжнародний день боротьби з дитячим раком: вчасна діагностика - 80% успіху
3 хв на прочитанняВчора
Зустріч сина донора з реципієнтами у Львові
Син донора познайомився з трьома чоловіками, яких врятували органи його батька
2 хв на прочитання14 Лютого 2026
Штучний інтелект у хірургії: десятки пацієнтів отримали травми через помилки навігаційних систем
2 хв на прочитання14 Лютого 2026
Україна знову переходить на літній час: чому закон про скасування не спрацював
1 хв на прочитання14 Лютого 2026
Від тибетських чаш до сучасних генераторів частот: еволюція звукового оздоровлення
2 хв на прочитання14 Лютого 2026
95 відсотків новонароджених із патологіями серця може бути врятовано
2 хв на прочитання14 Лютого 2026