Новое исследование, проведенное специалистами из Университета Индианы, показало, что использование таких технологий может иметь неожиданные результаты. Вместо того чтобы снижать доверие к ложной информации, проверка фактов, выполненная ИИ, в некоторых случаях даже увеличивает вероятность веры в ложные заголовки.
Работа ученых показала, что люди, которые используют проверку фактов, выполненную языковыми моделями ИИ, чаще делятся как правдивыми, так и ложными новостями. Однако уровень доверия у таких пользователей возрастает только к ложной информации, а не к правдивой.
Руководитель исследования Мэтью ДеВерна отметил, что главная проблема заключается в том, как люди воспринимают информацию, предоставляемую ИИ. Несмотря на то что языковая модель правильно определяет 90% ложных заголовков, это не способствует значительному повышению способности пользователей отличать правду от вымысла. Более того, когда ИИ выражает неуверенность в оценке заголовка, люди склонны больше верить в его правдивость.
«Масштабирование фактчекинга с помощью ИИ кажется привлекательным решением, поскольку проверяющие-люди не успевают за темпами распространения ложной информации, особенно генерируемой другими ИИ», — отметил ДеВерна. — «Однако наше исследование демонстрирует, что взаимодействие людей с ИИ может вызывать нежелательные последствия, поэтому важно тщательно продумывать способы внедрения таких инструментов».
Сравнение работы ИИ и человеческих фактчекеров выявило существенную разницу. Проверка фактов, выполненная человеком, значительно повышает способность пользователей отличать правдивые заголовки от ложных. В то же время, фактчекинг, выполненный искусственным интеллектом, часто оказывает более слабое воздействие, а иногда даже приводит к обратному эффекту.
«Наши выводы указывают на потенциальные риски применения ИИ для проверки фактов, особенно в политически заряженных контекстах», — подчеркнул автор работы профессор Филиппо Менцер. — «Это подчеркивает необходимость разработки политик, направленных на предотвращение или смягчение таких непреднамеренных последствий».
Работа команды Университета Индианы указывает на необходимость дальнейших экспериментов, чтобы повысить точность ИИ в проверке фактов и лучше понять, как взаимодействие между человеком и машиной влияет на восприятие информации.
Кроме того, исследование поднимает важные вопросы об этике использования ИИ в медиапространстве. Если системы, предназначенные для борьбы с дезинформацией, могут сами способствовать ее распространению, то внедрение таких технологий требует крайне осторожного подхода.
Ранее стало известно, что чат-боты на основе ИИ оценивают социальные ситуации лучше людей.