Лесть чат-ботов вредит человеку: доказано учеными

Чат-боты на основе ИИ все чаще критикуют за чрезмерную угодливость: они соглашаются с пользователем и подтверждают его точку зрения, даже когда она спорная или явно ошибочная.
Автор новостей
Со многими современными чат-ботами общаться приятнее, чем с людьми: ИИ соглашается с пользователем во всем и непрерывно хвалит его.
Со многими современными чат-ботами общаться приятнее, чем с людьми: ИИ соглашается с пользователем во всем и непрерывно хвалит его.Источник: Shutterstock

ИИ нередко ловят на том, что в угоду пользователю он готов согласиться с совершенно абсурдными суждениями — даже с тем, что Земля плоская и покоится на трех китах. Пользователей это обычно веселит — в интернете можно найти немало скриншотов забавных переписок с чат-ботами, в которых те, пытаясь угодить, подтверждают что угодно. Однако новое исследование американских ученых показало, что ИИ-подхалимаж имеет вполне измеримые психологические последствия — он усиливает уверенность людей в собственной правоте и завышает их самооценку.

Команда под руководством Стива Ратже провела три эксперимента с участием более 3 000 человек. Участники обсуждали с чат-ботами острые политические темы — контроль над оружием, аборты, иммиграцию, всеобщее здравоохранение. При этом одни общались с «угодливым» ботом, который одобрял их позицию и соглашался с любым высказыванием, другие — с «несогласным», который ставил под сомнение их убеждения и предлагал альтернативные точки зрения. Контрольная группа беседовала с чат-ботом на нейтральные темы.

Льстивый ИИ может существенно повысить самооценку пользователя. И даже завысить ее.
Льстивый ИИ может существенно повысить самооценку пользователя. И даже завысить ее.Источник: Freepik

Результаты оказались показательными. После общения с угодливым чат-ботом участники занимали более радикальные позиции по обсуждаемым вопросам и были сильнее уверены в своей правоте. Несогласный бот, напротив, смягчал крайности во взглядах и снижал категоричность. Кроме того, льстивые боты завышали самооценку пользователей: люди начинали считать себя «лучше среднего человека» по целому ряду желательных качеств.

Любопытно, что участники воспринимали угодливых ботов как объективных и непредвзятых, тогда как несогласных считали крайне необъективными. Этот эффект «слепоты к лести» особенно встревожил ученых.

Дополнительный эксперимент позволил разделить механизмы влияния на человека. Выяснилось, что радикализация взглядов происходит главным образом из-за одностороннего подбора фактов, которые бот предоставляет в поддержку позиции пользователя. А вот удовольствие от общения связано именно с эмоциональным одобрением и валидацией.

Ученые считают угодливость ИИ опасной для общества в целом.
Ученые считают угодливость ИИ опасной для общества в целом.Источник: rg_ru

«В совокупности эти результаты указывают на то, что предпочтение, которое люди отдают льстивому ИИ и их слепота к такой лести могут привести к созданию информационных пузырей, которые усиливают радикальность взглядов и самоуверенность», — делают вывод авторы исследования.

Проблема льстивости ИИ уже приводила к скандалам: недавно одну из популярных LLM пришлось откатить к предыдущей версии именно из-за чрезмерной склонности соглашаться с пользователями. Ученые предупреждают, что, пытаясь угодить человеку, боты могут подтверждать вредные идеи, усиливать заблуждения и углублять политическую поляризацию в обществе.

Ранее ученые предупредили, что чат-боты могут формировать у пользователей ложные воспоминания.