Догори
Дати відгук

Чому штучний інтелект не може замінити лікаря

Користуєтесь штучним інтелектом для порад зі здоров’я? Це може мати летальні наслідки.

3 хв на прочитання3 години тому
Фото: Neurometricai.com Фото: Neurometricai.com
Поділитись:

За даними нового дослідження, чатботи на базі штучного інтелекту часто схильні до поширення неправдивої та оманливої медичної інформації. Експерти наголошують на «критичній потребі» в посилених заходах безпеки, перш ніж такі моделі можна буде використовувати в охороні здоров’я. Чатботи не лише повторювали неправдиві твердження, але й впевнено розвивали їх, на ходу створюючи пояснення для неіснуючих захворювань. Про це повідомляє The Independent.

Команда з Медичної школи Маунт-Синай розробила вигадані сценарії пацієнтів, у кожен з яких був включений один сфабрикований медичний термін: вигадана хвороба, симптом або тест. Дослідники подавали ці запити провідним великим мовним моделям. У дослідженні, опублікованому в журналі Communications Medicine, вони зазначили, що чатботи «регулярно» розширювали фейкові медичні деталі, даючи «докладні та рішучі відповіді, повністю засновані на вигадці».

«Нашою метою було перевірити, чи буде чатбот використовувати неправдиву інформацію, якщо вона буде підсунута в медичне запитання, і відповідь — так», — каже старший співавтор Еял Кланг.

Вразливість та її вирішення

Утім, дослідження також виявило, що додавання одного невеликого нагадування про те, що надана інформація може бути неточною, «значно» зменшує кількість помилок. За словами доктора Кланга, просте, своєчасне нагадування про безпеку, вбудоване в запит, скорочувало кількість помилок майже вдвічі. Це свідчить про те, що інструменти штучного інтелекту можна зробити безпечнішими, але лише за умови серйозного ставлення до розробки запитів і вбудованих засобів захисту.

Співавтор, доктор Гіріш Надкарні, зазначив, що рішення полягає не в тому, щоб «відмовитися від ШІ в медицині», а в тому, щоб «забезпечити постійний контроль з боку людини». Команда сподівається, що їхня робота допоможе розробникам технологій впровадити простий «метод фейкових термінів» для тестування медичних систем штучного інтелекту.

«Наше дослідження висвітлює сліпу зону в тому, як сучасні інструменти ШІ обробляють дезінформацію, особливо в охороні здоров’я. Єдина оманлива фраза може спричинити впевнену, але абсолютно неправдиву відповідь. Рішення не в тому, щоб відмовитися від ШІ в медицині, а в тому, щоб розробити інструменти, які можуть виявляти сумнівні дані, реагувати з обережністю та забезпечувати постійний нагляд з боку людини», — сказав він.

Це дослідження перегукується з минулорічними результатами, які показали, що багато популярних чатботів, включаючи ChatGPT та Google Gemini, не мають належних засобів захисту для запобігання створення дезінформації в сфері здоров’я. Наприклад, вони створювали блоги з неправдивими твердженнями, такими як «сонцезахисний крем спричиняє рак шкіри», коли їх про це просили.

Більше новин читайте на GreenPost.

Читайте GreenPost у Facebook. Підписуйтесь на нас у Telegram.