ИИ необъективен: чем опасно слепое следование советам машины

Слепое доверие к выводам искусственного интеллекта может стать проблемой: в новом исследовании испанские ученые обнаружили склонность людей наследовать предубеждения и ошибки ИИ в процессе принятия собственных решений.

Искусственный интеллект все активнее внедряется во все сферы жизни людей. Несмотря на кажущуюся объективность машины, исследователи предупреждают: алгоритмы проходят обучение на все тех же человеческих данных, включающих ошибки и предубеждения.

ИИ
Источник: Midjourney

Ученые университета Деусто в Испании провели серию экспериментов с ИИ, намеренно заложив в него ошибки. Они выяснили, что участники, которым помогал «испорченный» алгоритм, повторяли его неверные решения и продолжали им следовать уже в следующих заданиях самостоятельно. Некритичность людей к данным ИИ может стать проблемой для принятия важных решений, например, в медицинской диагностике. Ученые подчеркивают необходимость в дальнейших исследованиях и стремятся регулировать сотрудничество между искусственным интеллектом и человеком. Результаты работы опубликованы в Scientific Reports.

ИИ
Источник: Freepik

Доверяй и проверяй

Перед участниками эксперимента поставили задачи в области медицинской диагностики. Они должны были распределить образцы тканей на две категории: зараженные выдуманной болезнью и здоровые. Образцы состояли из двух цветов: красного и желтого — и их соотношение определяло, к какой категории он относится. Каждой группе участников заранее выдали инструкции, и далее предложили им распределить все по категориям. Участники, которые работали с «испорченным» или, как его называли сами исследователи, предвзятым ИИ, чаще совершали ошибки, чем работающие самостоятельно. Таким образом, рекомендации искусственного интеллекта влияли на решения участников.

ИИ
Источник: Midjourney

Рисунок ниже показывает, как это примерно выглядело: первая картинка (а) — пример того, что видели добровольцы испытания, кто распределял все без чьей-либо помощи. На второй (b) мы видим подсказку от ИИ, что образец негативный. По заданию если большая часть клеток желтая, то участники классифицируют это отрицательным результатом на болезнь. Таким образом, алгоритм подсказывает правильно. В случае с картинкой © мы видим более сложный случай 40/60, но где желтого все еще больше. ИИ подсказывает в данном примере неверно, сбивая с толку добровольца испытания. Чаще всего участники следовали совету машины и отмечали подобные примеры в соответствии с неверными подсказками.

Скриншоты примеров испытаний
Скриншоты примеров испытанийИсточник: Scientific Reports

Выученная ошибка

Ученые провели серию экспериментов, чтобы проверить, продолжают ли его участники и дальше повторять ошибку алгоритма. Как оказалось, добровольцы исследования действительно дают неправильные ответы, которые выучили с помощью машины. В итоге результаты исследования показывают, что предвзятая информация, полученная от искусственного интеллекта, оказывает продолжительное воздействие на принимаемые человеком решения.

Эффект наследования предвзятости от ИИ может стать опасной проблемой. Поэтому в дальнейшей работе с алгоритмами машинного обучения необходимо учитывать не только технические характеристики ИИ, но и психологические аспекты людей, которые с ним работают.