
Глобальная система психологической помощи сталкивается с серьезными проблемами, среди которых — повсеместная нехватка специалистов, высокая стоимость и недоступность услуг для многих людей. В связи с этим чат-боты на основе искусственного интеллекта рассматриваются как способ оказать немедленную поддержку людям с легкими и умеренными психологическими трудностями. Однако ученых интересует, может ли машина эффективно передавать именно те качества, которые делают терапию успешной, — прежде всего ощущение понимания и поддержки.
«После COVID мы наблюдали резкий рост проблем с психическим здоровьем, но возможности оказания помощи не росли такими же темпами, — говорит автор нового исследования, доцент Университета Манипал в Джайпуре Гаган Джейн. — Я хотел выяснить, может ли ИИ помочь сократить этот разрыв, и как люди оценивают поддержку ИИ по сравнению с живым специалистом».
В эксперименте участвовали 84 студента-магистранта клинической психологии с опытом клинической практики. Ученые подготовили шесть терапевтических транскриптов — три из них были созданы специально обученной версией ChatGPT 4, а еще три были взяты из реальных сессий с людьми-терапевтами. Участники оценивали тексты по эмпатии, профессионализму и фактической корректности.

Эксперимент проходил в три этапа. Когда источники текстов были скрыты, транскрипты ИИ получили более высокие оценки по всем параметрам. Когда ученые намеренно ввели участников в заблуждение, выдав тексты ИИ за человеческие и наоборот, более высокие оценки стабильно получали тексты, которые считались написанными человеком. Когда же истинные авторы были раскрыты, человеческие транскрипты значительно обошли машинные.
«Меня удивило, насколько сильно то, кого люди считают автором, влияет на их оценку, — отмечает Джейн. — Даже при сопоставимом содержании многие демонстрируют предпочтение человеку — большее изначальное доверие к человеческому источнику, чем к ИИ. Это напоминание: внедрение ИИ в сферу психического здоровья — не только технологическая проблема, но и проблема доверия и восприятия».
Исследование наглядно показало, что суждения людей основаны не только на том, что сказано, но и на том, кто, по их мнению, это говорит. ИИ может расширить доступ к помощи, но не должен рассматриваться как замена обученных специалистов, особенно в ситуациях повышенного риска.

