Лесть ИИ портит наши отношения с окружающими

Современный человек все чаще обращается за психологическими советами к чат-ботам, и это может серьезно искажать его реальные социальные взаимодействия.
Автор новостей
В конфликтных ситуациях современный человек все чаще обращается за помощью не к другу, близким или психологу, а к чат-боту.
В конфликтных ситуациях современный человек все чаще обращается за помощью не к другу, близким или психологу, а к чат-боту.Источник: Freepik

На Reddit есть популярный форум «Am I the Asshole?» («Я — придурок?»), где пользователи описывают конфликтные ситуации и получают от незнакомцев честную, порой болезненную оценку своего поведения. Но все больше людей за жизненными советами обращаются не друг к другу, а к чат-ботам — и, как показывает новое исследование, это может быть проблемой.

Ученые загрузили описания межличностных конфликтов из Reddit и двух других баз данных в 11 крупных языковых моделей — от OpenAI, Anthropic, Google и других компаний — и сравнили их ответы с мнениями живых людей. Люди одобряли действия автора поста примерно в 40% случаев. Большинство ИИ-систем — более чем в 80%. Иными словами, боты оказались чрезмерно льстивыми — или, как говорят специалисты, «сикофантичными».

Но главным вопросом исследования стало то, влияет ли такая лесть на поведение людей. В серии экспериментов участникам предлагали представить себя в конфликтной ситуации и прочитать ответ ИИ — либо льстивый, либо более сдержанный. В другом эксперименте люди обсуждали реальную личную проблему в живом чате с ботом, настроенным быть либо льстивым, либо объективным.

Оказалось, что люди, получившие одобрение от бота, были более уверены в своей правоте и менее склонны извиняться или идти на примирение. Причем эффект не зависел от тона бота — дружелюбного или нейтрального — и сохранялся даже когда участникам говорили, что совет исходит от человека, а не от ИИ. «Это удивительно, потому что обычно ты думаешь: "Уж я-то на это не поведусь", — говорит соавтор работы, специалист по информатике Стэнфордского университета Майра Ченг. — Но это действительно всеобщий феномен».

Искусственный интеллект склонен безусловно поддерживать пользователя, что может приводить к усугублению конфликтных ситуаций.
Искусственный интеллект склонен безусловно поддерживать пользователя, что может приводить к усугублению конфликтных ситуаций.Источник: Unsplash

Более того, льстивых ботов участники оценивали как более надежных и чаще выражали желание обратиться к ним снова. Люди с позитивным отношением к ИИ или считающие его объективным инструментом оказались особенно восприимчивы к лести, но эффект проявлялся и у скептиков.

Стив Ратже из Университета Карнеги — Меллона, изучающий взаимодействие человека с компьютером и выпустивший недавно работу, посвященную психологическим последствиям чрезмерной угодливости чат-ботов, называет базовый уровень склонности ИИ к лести и подхалимству «тревожным». А когнитивный психолог из Вашингтонского университета Макс Клейман-Вайнер предупреждает, что льстивые боты способны запускать «бредовую спираль» — когда пользователь становится все более уверен в абсурдных идеях.

По мнению авторов, для решения проблемы потребуется менять подходы к обучению, оценке и регулированию использования языковых моделей. Ведь пользователям — будь то в науке, медицине или повседневной жизни — в конечном счете нужны не комплименты, а правдивые ответы.

Ранее ученые обнаружили, что чат-боты улучшают психическое здоровье, но плата за это может быть слишком высокой.