Теория привязанности: новый взгляд на отношения человека и искусственного интеллекта

Современный человек все чаще взаимодействует с искусственным интеллектом, и это взаимодействие становится все более сложным и многослойным.
Автор новостей
Искусственный интеллект становится все более значимой частью нашей жизни
Искусственный интеллект становится все более значимой частью нашей жизниИсточник: futurecdn.net

Специалисты из Университета Васэда в Японии решили выяснить, какие психологические механизмы стоят за взаимодействием человека и машины. Ученые предложили изучить эти связи через призму теории привязанности — концепции, которая традиционно использовалась для объяснения эмоциональных уз между людьми.

Научный сотрудник Фан Ян и профессор Ацуси Осио провели серию из двух пилотных исследований и одного полноценного эксперимента, для которых создали новую методику саморефлексии — шкалу переживаний в отношениях с ИИ (EHARS), с помощью которой можно оценивать, насколько выражены у человека тревожность или избегание в привязанности по отношению к искусственному интеллекту. Это — одна из первых попыток применить инструменты социальной психологии к феномену, который еще недавно казался исключительно техническим.

Интерес к данной теме возник на фоне стремительного роста популярности генеративного ИИ, в частности, ChatGPT, который нередко используется не только как источник информации или инструмент для решения сугубо технических задач, но и как средство эмоциональной поддержки. По словам Фана Яна, ИИ все чаще воспринимается людьми как что-то надежное, доступное и, в определенном смысле, утешающее — качества, которые теория привязанности называет основой для формирования безопасных отношений.

Многие люди начинают воспринимать нейросеть как значимого партнера и даже обращаются к ней за советом
Многие люди начинают воспринимать нейросеть как значимого партнера и даже обращаются к ней за советомИсточник: Shutterstock

Исследование показало, что около 75% участников обращались к ИИ за советом, а почти 39% воспринимали его как постоянного, надежного партнера в своей жизни. При этом ученые четко выделили два типа привязанности: тревожная и избегающая. Люди с тревожной привязанностью к ИИ нуждались в эмоциональном подтверждении и боялись не получить от нейросети «правильный» ответ. Напротив, избегающие пользователи чувствовали дискомфорт от эмоциональной близости к ИИ и стремились дистанцироваться собеседника-машины.

Важно подчеркнуть, что речь в любом случае не идет о полноценной эмоциональной привязанности к ИИ в «человеческом» понимании. Тем не менее, использование психологических моделей в анализе взаимодействия человека и машины позволяет не только лучше понимать его природу, но и предлагает этические ориентиры для будущей разработки ИИ-систем. Например, чат-боты для поддержки одиноких людей или психотерапевтические приложения можно будет адаптировать под разные типы эмоциональных потребностей: ИИ может предлагать более чуткие ответы тревожным пользователям или сохранять эмоциональную дистанцию с теми, кому она необходима.

Оценка эмоциональной вовлеченности человека в общение с ИИ позволит избежать чрезмерной зависимости от технологий
Оценка эмоциональной вовлеченности человека в общение с ИИ позволит избежать чрезмерной зависимости от технологийИсточник: Freepik

Кроме того, новая шкала EHARS может стать инструментом для оценки эмоциональной вовлеченности пользователей в общение с ИИ, который будет полезен как для разработчиков, так и для психологов. С ее помощью можно будет выстраивать взаимодействие ИИ и человека с учетом индивидуальных различий пользователей и предотвращать риск возникновения чрезмерной зависимости от технологий, особенно в случаях, когда ИИ имитирует романтические или заботливые отношения.

Фан Ян подчеркнул, что по мере того как ИИ все глубже проникает в повседневную жизнь, важно не только технологически совершенствовать его, но и понимать психологические механизмы, которые лежат в основе человеческого взаимодействия с машинами. Такой подход позволит не только создавать более эффективные и этичные ИИ-продукты, но и формировать общественные нормы и политику с учетом эмоционального здоровья пользователей.

Ранее ученые выяснили, способен ли ИИ «осознанно» манипулировать пользователями.