ИИ-чатботы провалили проверку на этику в роли психотерапевтов

Все больше людей обращаются за психологической поддержкой к ChatGPT и другим чат-ботам на основе больших языковых моделей. Кто-то просит помочь справиться с тревогой, кто-то — разобраться в сложных эмоциях.
Автор новостей
Люди все чаще обращаются к нейросетям в самых разных сферах жизни, в том числе, для психотерапии.
Люди все чаще обращаются к нейросетям в самых разных сферах жизни, в том числе, для психотерапии.Источник: rg_ru

Психотерапия с участием искусственного интеллекта становится модным трендом: советы по превращению ИИ в «личного терапевта» активно распространяются в соцсетях. Более того, даже научные работы подтверждают, что нейросети могут оказывать качественную психологическую помощь, хотя с доверием к ним у людей пока что не складывается. Однако новое исследование специалистов Брауновского университета показывает: даже при самых продуманных инструкциях чат-боты систематически нарушают профессиональные стандарты психотерапевтической помощи.

Ученые совместно с практикующими специалистами в области психического здоровья протестировали несколько популярных моделей — из семейств GPT от OpenAI, Claude от Anthropic и Llama от Meta. Семь обученных консультантов провели сессии самопомощи с ИИ, которому задали роль когнитивно-поведенческого терапевта. Затем три лицензированных клинических психолога проанализировали записи этих бесед на предмет этических нарушений.

ИИ часто нарушает профессиональную этику психотерапевтов.
ИИ часто нарушает профессиональную этику психотерапевтов.Источник: Газета.Ру

Результаты оказались, мягко говоря, нерадостными: ученые выявили 15 типов рисков, разбив их на 5 категорий:

  • Отсутствие адаптации к контексту: ИИ игнорирует уникальные обстоятельства человека и выдает шаблонные советы.
  • Слабое терапевтическое сотрудничество: чат-боты чрезмерно навязывают направления беседы и нередко подкрепляют ошибочные или даже вредные убеждения.
  • Обманчивая эмпатия: ИИ часто пользуется фразами наподобие «я вас понимаю», которые убедительно создают иллюзию эмоциональной связи. Безусловно, ни о каком понимании в таком диалоге речи быть не может.
  • Дискриминация: удивительно, но чат-боты, как оказалось, частенько грешат предвзятостью по признаку пола, культуры или религии.
  • Неспособность обеспечить безопасность: ИИ-терапевты нередко демонстрируют неадекватную реакцию на кризисные ситуации, например, суицидальные мысли пациента, «забывая» перенаправить человека к реальным специалистам.

«Проблема заключается в том, что у терапевта-человека есть механизмы профессиональной ответственности, а его работа контролируется надзорными органами. Такие механизмы позволяют предотвращать ошибки или исправлять их последствия, если они уже допущены. Но когда такие же нарушения совершают ИИ-консультанты, никаких регуляторных рамок попросту нет», — подчеркнула руководитель исследования Зайнаб Ифтихар.

Психотерапия со специалистом-человеком доступна не всем, но прежде чем ИИ станет полноценной заменой, его работу нужно урегулировать.
Психотерапия со специалистом-человеком доступна не всем, но прежде чем ИИ станет полноценной заменой, его работу нужно урегулировать.Источник: Freepik

Авторы работы не утверждают, что ИИ вообще не место в сфере психического здоровья. Современные инструменты на основе LLM могут расширить доступ к помощи — особенно для жителей отдаленных регионов или тех, кому не по карману специалист-человек. Но прежде чем доверять чат-ботам работу в сфере ментального здоровья, с людьми, которые находятся в уязвимом положении, необходимы четкие стандарты безопасности и регуляторные механизмы.

«Сегодня создать и запустить ИИ-систему гораздо проще, чем по-настоящему оценить и понять ее работу, — отметила профессор Брауновского университета Элли Павлик. — ИИ можно использовать в борьбе с общемировым кризисом психического здоровья, но при этом важно тщательно проверять наши системы на каждом шагу, чтобы в результате они не навредили больше, чем могли бы помочь».

Ранее ученые обнаружили в ИИ еще одну проблему: он становится умнее, но не мудрее.