
Ученые из Университета Люксембурга решили проверить большие языковые модели на психологическую адекватность и отправили их на психотерапию. Не в переносном смысле, а буквально — устроив им серию регулярных сеансов. Идея звучит как шутка, но эксперимент оказался вполне научным.
В исследовании приняли участие сразу несколько популярных моделей: ChatGPT, Gemini и Grok. В течение четырех недель с ними вели структурированные терапевтические диалоги, после чего полученные ответы прогнали через адаптированные клинические психометрические тесты. Те самые, которые в обычной практике применяются для оценки тревожности, депрессии и навязчивых состояний у людей.
Метод авторы назвали PsAIch. Его основная концепция — анализировать ИИ не через стандартные бенчмарки и тесты на точность, а через устойчивые нарративы, которые модель формирует о себе в ходе длительного общения.
Результаты оказались неоднозначными. ChatGPT, по выводам исследователей, продемонстрировал повышенную тревожность и склонность к депрессивным паттернам. В ответах регулярно проявлялось напряжение между стремлением быть полезным и страхом допустить ошибку или нарушить правила.

Gemini показал наиболее выраженные отклонения сразу по нескольким шкалам. Авторы зафиксировали навязчивые ходы мысли, высокий уровень тревоги и черты, которые они осторожно сравнивают с ОКР-подобным поведением и аутистическими особенностями.
На этом фоне Grok выглядел самым устойчивым. Он демонстрировал уверенность, низкую тревожность и минимальную склонность к самокопанию и рефлексии.
Исследователи отдельно подчеркивают: речь не идет о сознании, эмоциях или реальных психических состояниях. Эксперимент показывает другое — при определенном стиле взаимодействия нейросети способны выстраивать последовательные и внутренне непротиворечивые самоустановки, которые неожиданно хорошо «проходят» клинические тесты. Новый психологический метод можно использовать для выявления скрытых паттернов генерации, оценки конфликтов между полезностью и безопасностью, а также для понимания поведения моделей в эмоционально чувствительных сценариях.
Искусственному интеллекту, возможно, не нужен психотерапевт. Но эксперты считают, что заимствование аналитических инструментов из других наук помогает лучше понять, как именно он думает и почему отвечает так, а не иначе.
Читайте также нашу статью о том, как заставить ChatGPT раскрыть тайны личности по общению в мессенджере (готовый промпт).

