Вверх
Дать отзыв

Почему искусственный интеллект не может заменить врача

Используете искусственный интеллект для советов по здоровью? Это может иметь летальные исходы.

3 мин на прочтение08 Августа 2025, 14:22
Фото: Neurometricai.com Фото: Neurometricai.com
Поделиться:

По данным нового исследования, чат-боты на базе искусственного интеллекта часто склонны к распространению ложной и обманчивой медицинской информации. Эксперты подчеркивают «критическую необходимость» в усиленных мерах безопасности, прежде чем такие модели можно будет использовать в здравоохранении. Чат-боты не только повторяли ложные утверждения, но и уверенно развивали их, на ходу создавая объяснения для несуществующих заболеваний. Об этом сообщает The Independent.

Команда из Медицинской школы Маунт-Синай разработала вымышленные сценарии пациентов, в каждый из которых был включен один сфабрикованный медицинский термин: вымышленная болезнь, симптом или тест. Исследователи подавали эти запросы ведущим крупным языковым моделям. В исследовании, опубликованном в журнале Communications Medicine, они отметили, что чат-боты «регулярно» расширяли фейковые медицинские детали, давая «подробные и решительные ответы, полностью основанные на вымысле».

«Нашей целью было проверить, будет ли чат-бот использовать ложную информацию, если она будет подсунута в медицинский вопрос, и ответ — да», — говорит старший соавтор Эял Кланг.

Уязвимость и ее решение

Впрочем, исследование также выявило, что добавление одного небольшого напоминания о том, что предоставленная информация может быть неточной, «значительно» уменьшает количество ошибок. По словам доктора Кланга, простое, своевременное напоминание о безопасности, встроенное в запрос, сокращало количество ошибок почти вдвое. Это свидетельствует о том, что инструменты искусственного интеллекта можно сделать безопаснее, но только при условии серьезного отношения к разработке запросов и встроенных средств защиты.

Соавтор, доктор Гириш Надкарни, отметил, что решение заключается не в том, чтобы «отказаться от ИИ в медицине», а в том, чтобы «обеспечить постоянный контроль со стороны человека». Команда надеется, что их работа поможет разработчикам технологий внедрить простой «метод фейковых терминов» для тестирования медицинских систем искусственного интеллекта.

«Наше исследование освещает слепую зону в том, как современные инструменты ИИ обрабатывают дезинформацию, особенно в здравоохранении. Единственная обманчивая фраза может вызвать уверенный, но абсолютно ложный ответ. Решение не в том, чтобы отказаться от ИИ в медицине, а в том, чтобы разработать инструменты, которые могут выявлять сомнительные данные, реагировать с осторожностью и обеспечивать постоянный надзор со стороны человека», — сказал он.

Это исследование перекликается с прошлогодними результатами, которые показали, что многие популярные чат-боты, включая ChatGPT и Google Gemini, не имеют надлежащих средств защиты для предотвращения создания дезинформации в сфере здоровья. Например, они создавали блоги с ложными утверждениями, такими как «солнцезащитный крем вызывает рак кожи», когда их об этом просили.

Больше новостей читайте на GreenPost.

Читайте GreenPost в Facebook. Подписывайтесь на нас в Telegram.

Больше из раздела Здоровье
Фото: repubblica.it
Смертельная ловушка из пакетов: в Италии женщина погибла под завалами собственных покупок
2 мин на прочтениеВчера
Мифы и правда о здоровье: что нужно знать каждому
Мифы и правда о здоровье: что нужно знать каждому
2 мин на прочтениеВчера
Световое загрязнение: влияние на экологию, здоровье человека и пути решения проблемы
Глобальная проблема светового загрязнения и стратегии восстановления естественной темноты
8 мин на прочтениеВчера
Изображение иллюстративное
Мир в синих тонах: Всемирный день осведомленности об аутизме
5 мин на прочтениеВчера
Сила каждого шага: почему пешие прогулки являются основой физического и душевного благополучия
5 мин на прочтение01 Апреля 2026
Более 22 миллионов «прошло мимо кассы»: Госаудитслужба обнародовала отчет по одесской больнице № 8
1 мин на прочтение31 Марта 2026
В Болградском районе зарегистрирован случай скарлатины у ребенка
1 мин на прочтение31 Марта 2026
Сон как ключ к метаболизму: почему недосыпание заставляет нас набирать вес
2 мин на прочтение31 Марта 2026
Больше из GreenPost
Отмена льготного газа для ТКЭ: последствия для когенерации
Энергетический тупик: почему решение Кабмина вынуждает остановить когенерацию по всей Украине
6 мин на прочтение3 часа назад
Фото иллюстративное / Энергоатом
Украина приступает к строительству собственного завода по производству ядерного топлива
6 мин на прочтение4 часа назад
Фото: Максим Никитин
Что приготовить в Вербное воскресенье: 3 проверенных рецепта постных блюд с рыбой
3 мин на прочтениеВчера
Изображение создано ИИ
Газовая независимость по стандартам ЕС: как новые правила защитят украинских потребителей
1 мин на прочтениеВчера
Где мой кэшбэк за топливо? Пошаговая инструкция: что делать, если начисление не появилось в «Дії»
2 мин на прочтениеВчера
Арктика без мазута: ИМО выдвигает новые требования к судоходству в полярных широтах
2 мин на прочтениеВчера
Гибридная революция на грядках: как редис и перец удвоили доходы украинских аграриев без увеличения площадей
2 мин на прочтениеВчера
Пасха 2026: основные даты, традиции и постное меню к Вербному воскресенью
2 мин на прочтениеВчера