
Психотерапия с участием искусственного интеллекта становится модным трендом: советы по превращению ИИ в «личного терапевта» активно распространяются в соцсетях. Более того, даже научные работы подтверждают, что нейросети могут оказывать качественную психологическую помощь, хотя с доверием к ним у людей пока что не складывается. Однако новое исследование специалистов Брауновского университета показывает: даже при самых продуманных инструкциях чат-боты систематически нарушают профессиональные стандарты психотерапевтической помощи.
Ученые совместно с практикующими специалистами в области психического здоровья протестировали несколько популярных моделей — из семейств GPT от OpenAI, Claude от Anthropic и Llama от Meta. Семь обученных консультантов провели сессии самопомощи с ИИ, которому задали роль когнитивно-поведенческого терапевта. Затем три лицензированных клинических психолога проанализировали записи этих бесед на предмет этических нарушений.

Результаты оказались, мягко говоря, нерадостными: ученые выявили 15 типов рисков, разбив их на 5 категорий:
- Отсутствие адаптации к контексту: ИИ игнорирует уникальные обстоятельства человека и выдает шаблонные советы.
- Слабое терапевтическое сотрудничество: чат-боты чрезмерно навязывают направления беседы и нередко подкрепляют ошибочные или даже вредные убеждения.
- Обманчивая эмпатия: ИИ часто пользуется фразами наподобие «я вас понимаю», которые убедительно создают иллюзию эмоциональной связи. Безусловно, ни о каком понимании в таком диалоге речи быть не может.
- Дискриминация: удивительно, но чат-боты, как оказалось, частенько грешат предвзятостью по признаку пола, культуры или религии.
- Неспособность обеспечить безопасность: ИИ-терапевты нередко демонстрируют неадекватную реакцию на кризисные ситуации, например, суицидальные мысли пациента, «забывая» перенаправить человека к реальным специалистам.
«Проблема заключается в том, что у терапевта-человека есть механизмы профессиональной ответственности, а его работа контролируется надзорными органами. Такие механизмы позволяют предотвращать ошибки или исправлять их последствия, если они уже допущены. Но когда такие же нарушения совершают ИИ-консультанты, никаких регуляторных рамок попросту нет», — подчеркнула руководитель исследования Зайнаб Ифтихар.

Авторы работы не утверждают, что ИИ вообще не место в сфере психического здоровья. Современные инструменты на основе LLM могут расширить доступ к помощи — особенно для жителей отдаленных регионов или тех, кому не по карману специалист-человек. Но прежде чем доверять чат-ботам работу в сфере ментального здоровья, с людьми, которые находятся в уязвимом положении, необходимы четкие стандарты безопасности и регуляторные механизмы.
«Сегодня создать и запустить ИИ-систему гораздо проще, чем по-настоящему оценить и понять ее работу, — отметила профессор Брауновского университета Элли Павлик. — ИИ можно использовать в борьбе с общемировым кризисом психического здоровья, но при этом важно тщательно проверять наши системы на каждом шагу, чтобы в результате они не навредили больше, чем могли бы помочь».
Ранее ученые обнаружили в ИИ еще одну проблему: он становится умнее, но не мудрее.

