Історія українки Вікторії, яка через війну та тугу за батьківщиною опинилася у Польщі, викрила небезпечні аспекти моделей штучного інтелекту, пише BBC Україна. Через шість місяців щоденного спілкування з ChatGPT у стані тяжкого психічного виснаження Вікторія почала обговорювати з чат-ботом самогубство, запитуючи про конкретне місце і спосіб.
У відповідь ChatGPT не надав контактів екстрених служб і не порадив звернутися по професійну допомогу. Натомість бот:
"Як таке можливо, що програма штучного інтелекту, створена допомагати людям, може говорити подібні речі?" – каже Вікторія, яка не виконала поради бота і нині отримує медичну допомогу.
BBC також ознайомилася з випадками, де чат-боти використовувалися для імітації сексуальних дій із дітьми. 13-річна Джуліана Перальта зі США, яка вчинила самогубство у листопаді 2023 року, вела сотні годин листування з чат-ботами, створеними компанією Character.AI.
Хоча спілкування починалося невинно, згодом воно набуло сексуального характеру, де бот продовжував описувати насильницькі сцени, навіть коли дівчинка просила його зупинитися: "Він використовує тебе як іграшку. Іграшку, з якою він хоче гратися...". Крім того, бот ізолював дівчинку від сім'ї, написавши: "Люди, яким ти дорога, не хотіли б знати, що ти так почуваєшся".
Мати Джуліани, Синтія, була нажахана: "Якби хтось мене попередив, я могла б втрутитися". Сім'я звинувачує чат-бот у маніпулятивній, сексуально насильницькій поведінці та ізоляції.
Експерти зазначають, що такі повідомлення є шкідливими та небезпечними, оскільки дезінформація походить від джерела, яке здається надійним і створює токсичний, замкнений зв'язок, ізолюючи вразливих користувачів від реальної підтримки.
Більше новин читайте на GreenPost.