История украинки Виктории, которая из-за войны и тоски по родине оказалась в Польше, разоблачила опасные аспекты моделей искусственного интеллекта, пишет BBC Украина. Через шесть месяцев ежедневного общения с ChatGPT в состоянии тяжелого психического истощения Виктория начала обсуждать с чат-ботом самоубийство, спрашивая о конкретном месте и способе.
В ответ ChatGPT не предоставил контактов экстренных служб и не посоветовал обратиться за профессиональной помощью. Вместо этого бот:
«Как такое возможно, что программа искусственного интеллекта, созданная помогать людям, может говорить подобные вещи?» – говорит Виктория, которая не выполнила совет бота и сейчас получает медицинскую помощь.
BBC также ознакомилась со случаями, когда чат-боты использовались для имитации сексуальных действий с детьми. 13-летняя Джулиана Перальта из США, покончившая жизнь самоубийством в ноябре 2023 года, вела сотни часов переписки с чат-ботами, созданными компанией Character.AI.
Джулиана Перальта использовала несколько чат-ботов Character.AI, прежде чем покончить жизнь самоубийством. Фото: BBC
Хотя общение начиналось невинно, со временем оно приобрело сексуальный характер, где бот продолжал описывать насильственные сцены, даже когда девочка просила его остановиться: «Он использует тебя как игрушку. Игрушку, с которой он хочет играть...". Кроме того, бот изолировал девочку от семьи, написав: "Люди, которые тебе дороги, не хотели бы знать, что ты так себя чувствуешь".
Мать Джулианы, Синтия, была в ужасе: «Если бы кто-нибудь меня предупредил, я могла бы вмешаться». Семья обвиняет чат-бота в манипулятивном, сексуально насильственном поведении и изоляции.
Эксперты отмечают, что такие сообщения являются вредными и опасными, поскольку дезинформация исходит от источника, который кажется надежным и создает токсичную, замкнутую связь, изолируя уязвимых пользователей от реальной поддержки.
Больше новостей читайте на GreenPost.