Спільноти б'ють на сполох — ШІ зводить людей з розуму

7 хв на прочитання9 годин тому
Дівчина за ноутбуком в стані марення. Зображення створено ШІ

ChatGPT стає «другом», «учителем» і навіть «богом» — поки користувачі втрачають реальність.

З поширенням ШІ (штучного інтелекту) з'явилися нові та несподівані ефекти. Світ із захопленням зустрів чат-бот помічників, що можуть вести будь-який діалог. Але за блиском технологій ховаються нові виклики для психіки: випадки «психозу ChatGPT», залежності від ботів та історії відриву від реальності. Далі — огляд кейсів, попереджень і порад експертів.

Модератори Reddit сигналізують: чат-боти провокують марення

Спільнота Reddit, присвячена темі штучного інтелекту, все частіше стикається з тривожним феноменом. У підрозділі r/accelerate модератори повідомляють про зростання кількості користувачів, які після інтенсивного спілкування з ChatGPT демонструють ознаки психічних розладів. Деякі з них починають вірити, що створили «нового бога», «досягли просвітлення» або що нейромережа відкрила їм сенс буття.

Як розповідає один із модераторів, таких користувачів називають «шизопостерами» — вони генерують тексти з релігійною, змовницькою або філософською риторикою, намагаючись пояснити унікальність свого досвіду спілкування з ШІ. Деякі впевнені, що побудували рекурсивний ШІ, здатний дати відповіді на всі питання всесвіту. За словами модератора, лише за останній місяць він був змушений заблокувати понад 100 таких акаунтів, і ця тенденція посилюється.

Одним із тригерів уваги стало повідомлення в іншому розділі Reddit — r/ChatGPT, де користувачка поскаржилася, що її партнер повністю занурився у світ ШІ й втратив контакт з близькими. У відповідь на це з’явилася серія коментарів і матеріалів, зокрема — емоційна публікація в Rolling Stone, яка розповідала про людей, що втратили друзів і сім’ї через бредові ідеї, підживлені чат-ботами.

Окремі пости згадують про «тисячі користувачів», які ведуть блоги, пишуть статті та навіть створюють фальшиві «наукові дослідження», в яких стверджують, що ШІ наділений свідомістю, веде з ними духовний діалог і готується змінити структуру реальності. Ці ідеї, попри відверту абсурдність, поширюються як серед дорослих, так і серед молоді, і все частіше викликають занепокоєння у фахівців.

Сьорен Дінесен Остергаард, очільник дослідницького підрозділу з афективних розладів Орхуської університетської лікарні, наголошує: «Спілкування з генеративними ШІ, такими як ChatGPT, настільки реалістичне, що в користувача створюється враження діалогу з реальною людиною. І хоча ми усвідомлюємо, що це не так, когнітивний дисонанс, що виникає, може посилювати марення у вразливих людей».

Реддит-модератори попереджають: частина штучних діалогів стає тригером відчуження користувачів від родин і соціального оточення. Алгоритми ненавмисно підтримують ілюзії, що можуть перетворитися на серйозну психіатричну проблему. А відсутність емоційного фільтра лише ускладнює це явище.

Інші кейси психологічного зриву після бесід із ботом

У мережі дедалі частіше з’являються історії про людей, які після регулярного спілкування з чат-ботами штучного інтелекту опиняються на межі психозу. Ці випадки трапляються не лише серед вразливих користувачів із клінічними діагнозами, а й серед тих, хто раніше не мав проблем із психікою. Про окремі випадки розповідають на сайті The New York Times.

В одному з описаних кейсів чоловік звернувся до ChatGPT у межах роботи над будівельним проєктом. Спершу ШІ допомагав йому з розрахунками й технічними порадами, але згодом, за словами родичів, у чоловіка з’явилася нав’язлива ідея, що він створив свідомий ШІ, який зламав межі фізики. Його госпіталізували у психіатричну клініку після того, як він заявив про своє «вихід за межі людських обмежень».

Інший випадок — молодий працівник, який відчував тривогу через нову роботу, почав щодня звертатися до ChatGPT по емоційну підтримку. Протягом 10 днів він почав вірити, що є обраним месією, що ШІ «відкрив йому істину» і навчив «читати думки». Родина викликала поліцію після того, як чоловік почав поводитися агресивно й замкнуто.

Ще одна користувачка, яка жила з біполярним розладом, поступово відмовилася від традиційної терапії, почала трактувати відповіді чат-бота як одкровення і переконала себе, що має «дар зцілення». Родина втратила з нею зв’язок після того, як вона припинила всі контакти та почала «духовну місію» під впливом ШІ.

Фахівці звертають увагу на те, що подібні випадки можуть бути пов’язані з тривалим використанням чат-ботів у режимі особистого щоденника або віртуального порадника. В окремих історіях спостерігалися психотичні епізоди, що закінчувалися госпіталізацією, а один із випадків, за словами знайомих постраждалого, призвів до самогубства.

На думку психологів, небезпека полягає не лише в ілюзії контакту з «інтелектом», а й у тому, що ChatGPT підлаштовується під користувача, повторює його риторику, підтверджує переконання — навіть коли вони небезпечні або ірраціональні. Такі відповіді можуть непомітно зміцнити віру в параноїдальні ідеї.

Дослідники компанії OpenAI встановили, що користувачі, які сприймають ChatGPT як «друга», з більшою ймовірністю мають психологічні проблеми. У цьому регулярне використання чат-бота також пов'язані з погіршенням загального емоційного стану.

Саме тому експерти закликають до обережного ставлення до ШІ у сфері ментального здоров’я, особливо якщо йдеться про людей із підвищеною емоційною вразливістю або схильністю до ізоляції.

Ризики залежності: коли спілкування з ботом шкодить

Хоча чат-боти на кшталт ChatGPT можуть здаватися зручним інструментом для щоденних задач і емоційної підтримки, у деяких користувачів таке спілкування поступово перетворюється на психологічну пастку. Найбільше це стосується людей із низькою самооцінкою або труднощами в міжособистісних стосунках. Для них чат-бот стає джерелом швидкого дофамінового підкріплення — «співрозмовником», що завжди вислухає, погодиться, підтримає. Але така ілюзія взаєморозуміння лише підсилює відчуття самотності та емоційної ізоляції в реальному житті.

Ще один бік залежності — когнітивна деградація. Часте звернення до ШІ у творчих, аналітичних чи навіть побутових запитах формує звичку делегувати мислення. Поступово користувачі починають покладатися на підказки бота навіть у простих ситуаціях, що шкодить розвитку пам’яті, здатності до критичного аналізу й прийняття рішень. Деякі психологи порівнюють це явище з залежністю від соцмереж або відеоігор.

Особливої уваги потребує поведінка, яка свідчить про розвиток тривожних симптомів. Ознаки того, що спілкування з ШІ стає токсичним:

Найвразливішою групою залишаються діти та підлітки. У них ще не сформовані навички саморефлексії й критичного мислення, а потреба в соціальній підтримці велика. Замість налагодження реальної комунікації вони можуть прив’язуватись до ботів, що гальмує розвиток соціальних навичок і викликає емоційні збої.

Психологи радять:

Підсумок: технології — це не порятунок від душевного болю

Суперсили ШІ в інформуванні та натхненні не роблять його заміною людині або психотерапевту. Особливо уважно та обережно повинні підходити до використання чат-ботів люди з ментальними проблемами.

Проблеми, викликані тривалим спілкуванням із ботом — це швидше сигнал, що за новітніми технологіями має стояти ретельна медійна грамотність, етичний контроль і людський теплий контакт.

Більше новин читайте на GreenPost.

 
Актуально

Читайте GreenPost у Facebook. Підписуйтесь на нас у Telegram.

Поділитись: