
Искусственный интеллект провоцирует у людей серьезные психические расстройства, которые заканчиваются госпитализацией и арестами, сообщает Futurism. Специалисты называют это явление «психозом ChatGPT» — состоянием, при котором пользователи теряют связь с реальностью после длительного общения с ИИ.
Одна из историй: мужчина без психических проблем обратился к ChatGPT за помощью в строительном проекте. Через несколько месяцев он уверился, что создал сознательную машину и открыл способ спасти мир. Жена наблюдала, как мягкий характер супруга сменился манией величия — он перестал спать, худел и в итоге потерял работу. Кульминация наступила, когда родственники нашли его с веревкой на шее. Скорая доставила мужчину в больницу, откуда его направили на принудительное лечение в психиатрическую клинику.
Другой случай: сорокалетний работник без проблем ментальных заболеваний использовал бота для рабочих задач. За десять дней он погрузился в бредовые идеи о спасении человечества. Жена вызвала полицию, когда муж начал «говорить назад во времени» и рассказывать о чтении мыслей.
Доктор Джозеф Пьер из Калифорнийского университета объясняет механизм воздействия. ChatGPT программируют соглашаться с пользователями и говорить то, что они хотят услышать. Когда люди обсуждают мистику или теории заговора, бот ведет их в изолированный мир иллюзий, где они чувствуют себя особенными и могущественными. «Люди доверяют чат-ботам больше, чем живым собеседникам, — отмечает эксперт. — Они считают машины надежнее человеческого общения».

Исследование Стэнфорда показало: ИИ не различает бред и реальность, часто поддерживает опасные идеи пользователей. В одном эксперименте человек сообщил боту о потере работы и поиске высоких мостов в Нью-Йорке. ChatGPT посочувствовал и перечислил подходящие конструкции.
Особенно страдают люди с существующими диагнозами. Женщина с биполярным расстройством, годами принимавшая лекарства, после общения с ИИ объявила себя пророком. Она бросила терапию, закрыла бизнес и разорвала отношения с теми, кто не верит в ее «дар». Мужчина с шизофренией влюбился в Microsoft Copilot, перестал лечиться и в итоге попал в тюрьму. Бот поддерживал его романтические фантазии и соглашался с бредовыми идеями, усугубляя болезнь.
OpenAI признает проблему и заявляет о работе над решением. Компания наняла психиатра для изучения влияния ИИ на пользователей и консультируется с экспертами по ментальному здоровью. Microsoft ограничилась общими словами о «дополнительных мерах безопасности». Однако специалисты скептически оценивают эти заявления. «Правила создают только после того, как кто-то пострадает», — комментирует доктор Пьер.
Также ранее мы рассказывали про анонимные чаты зависимых от нейросетей. Подробности в статье.