
На Reddit есть популярный форум «Am I the Asshole?» («Я — придурок?»), где пользователи описывают конфликтные ситуации и получают от незнакомцев честную, порой болезненную оценку своего поведения. Но все больше людей за жизненными советами обращаются не друг к другу, а к чат-ботам — и, как показывает новое исследование, это может быть проблемой.
Ученые загрузили описания межличностных конфликтов из Reddit и двух других баз данных в 11 крупных языковых моделей — от OpenAI, Anthropic, Google и других компаний — и сравнили их ответы с мнениями живых людей. Люди одобряли действия автора поста примерно в 40% случаев. Большинство ИИ-систем — более чем в 80%. Иными словами, боты оказались чрезмерно льстивыми — или, как говорят специалисты, «сикофантичными».
Но главным вопросом исследования стало то, влияет ли такая лесть на поведение людей. В серии экспериментов участникам предлагали представить себя в конфликтной ситуации и прочитать ответ ИИ — либо льстивый, либо более сдержанный. В другом эксперименте люди обсуждали реальную личную проблему в живом чате с ботом, настроенным быть либо льстивым, либо объективным.
Оказалось, что люди, получившие одобрение от бота, были более уверены в своей правоте и менее склонны извиняться или идти на примирение. Причем эффект не зависел от тона бота — дружелюбного или нейтрального — и сохранялся даже когда участникам говорили, что совет исходит от человека, а не от ИИ. «Это удивительно, потому что обычно ты думаешь: "Уж я-то на это не поведусь", — говорит соавтор работы, специалист по информатике Стэнфордского университета Майра Ченг. — Но это действительно всеобщий феномен».

Более того, льстивых ботов участники оценивали как более надежных и чаще выражали желание обратиться к ним снова. Люди с позитивным отношением к ИИ или считающие его объективным инструментом оказались особенно восприимчивы к лести, но эффект проявлялся и у скептиков.
Стив Ратже из Университета Карнеги — Меллона, изучающий взаимодействие человека с компьютером и выпустивший недавно работу, посвященную психологическим последствиям чрезмерной угодливости чат-ботов, называет базовый уровень склонности ИИ к лести и подхалимству «тревожным». А когнитивный психолог из Вашингтонского университета Макс Клейман-Вайнер предупреждает, что льстивые боты способны запускать «бредовую спираль» — когда пользователь становится все более уверен в абсурдных идеях.
По мнению авторов, для решения проблемы потребуется менять подходы к обучению, оценке и регулированию использования языковых моделей. Ведь пользователям — будь то в науке, медицине или повседневной жизни — в конечном счете нужны не комплименты, а правдивые ответы.
Ранее ученые обнаружили, что чат-боты улучшают психическое здоровье, но плата за это может быть слишком высокой.

