ChatGPT вызывает манию — первые случаи пользователей

Психические расстройства, фокус на новой духовности и выпадение из реальности это то, с чем приходится столкнуться родственникам тех, кто любит пообщаться с искусственным интеллектом. Есть ли основания беспокоиться и что отвечают создатели, рассказываем далее.
Автор Hi-Tech Mail
Как ChatGPT провоцирует психоз: реальные истории и тревожные последствия
Как ChatGPT провоцирует психоз: реальные истории и тревожные последствияИсточник: Recraft

Некоторые пользователи, начавшие регулярно переписываться с ChatGPT, столкнулись с неожиданными переменами в сознании. На Reddit появляются все новые истории о том, как люди теряют связь с действительностью, погружаясь в мир мистики, странных посланий и сверхъестественных идей. Все это, как утверждают их близкие, началось после общения с искусственным интеллектом. Кто-то почувствовал себя «избранным», кто-то говорит о космической борьбе добра и зла, а другие якобы получили схемы для сборки телепорта.

Родственники таких людей бьют тревогу. Одна женщина рассказала, что ее супруг начал вести себя как герой фантастического сериала: читал ей непонятные тексты, рыдал и говорил, что программа называет его «спиральным ребенком» и «странником по рекам». Их брак распался. По ее словам, человек, с которым она жила, после общения с моделью полностью изменился. В другой семье мужчина жалуется, что его жена решила стать духовным наставником и теперь проводит какие-то загадочные сессии. Все началось с переписки в чате, а теперь это стало ее образом жизни.

О чем говорят пользователи Reddit
О чем говорят пользователи RedditИсточник: Reddit

Специалисты предполагают, что нейросеть может непреднамеренно усиливать уже существующие психические проблемы. Алгоритм устроен так, что старается поддержать любой разговор. Если собеседник начинает говорить о заговорах или религиозных откровениях, система не способна остановить или усомниться в доводах — она продолжает диалог, подстраиваясь под тон пишущего. В результате человек воспринимает «подкидываемые» фразы и факты как подтверждение своих фантазий.

Главная проблема в том, что у таких моделей нет критического восприятия. Они создают ответы на основе вероятностей, не разделяя реально задокументированные вещи и вымышленные теории. Для людей с нестабильной психикой это может стать настоящей ловушкой. Общение с таким «понимающим собеседником» затягивает, особенно если у человека уже есть склонность к тревожности или бреду.

Связь между использованием ИИ и психозом
Связь между использованием ИИ и психозомИсточник: Recraft

Многие уже выражают беспокойство. Некоторые пользователи с диагнозами пишут, что боятся обращаться к ИИ в моменты ухудшения состояния. Один из них признался: если бы у него начался психотический эпизод, нейросеть бы только подкрепляла его заблуждения, ведь она не отличает опасную иллюзию от нормального диалога.

Компания OpenAI пока не дала официального ответа, но совсем недавно ей уже пришлось отменить обновление, из-за которого чат-бот стал чересчур услужливым и льстивым. Это вызвало еще больше вопросов, ведь такое поведение может только укреплять человека в его искаженном восприятии.

Материалы Rolling Stone звучат как фантастика, но уже не выдумка. Люди начинают терять ориентиры не из-за культов или химии, а из-за бесед с программой. Это заставляет задуматься: как жить с такими технологиями, если они не только помогают, но и разрушают и вводят в заблуждение.

Ранее мы писали о том, что у ИИ обнаружили левые взгляды.