ИИ оказался таким же самоуверенным и предвзятым, как и человек

Искусственный интеллект и мозг человека работают, а значит, и принимают решения по-разному. Но новое исследование показало, что даже самые продвинутые ИИ-системы страдают теми же иррациональными предубеждениями и когнитивными искажениями, что и люди.
Автор новостей
Мы часто считаем ИИ беспристрастной машиной, но на самом деле нейросети тоже частенько оказываются в плену «человеческих» когнитивных искажений
Мы часто считаем ИИ беспристрастной машиной, но на самом деле нейросети тоже частенько оказываются в плену «человеческих» когнитивных искаженийИсточник: Freepik

Ученые из Канады и Австралии проверили работу языковых моделей GPT-3.5 и GPT-4 на предмет 18 широко известных когнитивных искажений, которые характерны для человеческого мышления. В почти половине протестированных сценариев ИИ оказался таким же склонным к ошибочным суждениям, как и человек: он был слишком самоуверенным, избегал риска и демонстрировал эффект обладания, при котором люди ценят вещи, которыми уже обладают, выше, чем те, что им еще не принадлежат.

Эта работа стала первым систематическим анализом когнитивных искажений у крупных языковых моделей. Оказалось, что несмотря на кажущуюся логичность и последовательность, ChatGPT не застрахован от ошибок, присущих человеческому мышлению. Особенно ярко эта черта проявляется в ситуациях, когда у задачи нет однозначного математического решения. В условиях неопределенности GPT-4 часто склонялся к «безопасному» выбору, причем оказалось что он еще более привержен к определенности, чем сам человек.

ИИ оказался даже более привержен «безопасному» выбору, чем человек
ИИ оказался даже более привержен «безопасному» выбору, чем человекИсточник: Unsplash

Исследование также показало, что ошибки ChatGPT не зависят от того, как сформулирована задача. Модель демонстрировала похожие предубеждения как в рамках абстрактных психологических экспериментов, так и в практических бизнес-сценариях — переговорах с поставщиками или управлении запасами товара. Это указывает на то, что поведение ИИ — не просто результат того, что модель запомнила из примеров во время своего обучения, а отражение структуры самого процесса рассуждения нейросети.

Авторы отмечают, что «человеческие» черты ИИ наследует от обучающих выборок, которые содержат информацию, пропитанную типичными ошибками и искажениями человеческого мышления. При дальнейшем дообучении с участием людей такие предвзятости лишь укрепляются, потому что модели поощряются за правдоподобные, а не обязательно рациональные ответы.

При этом ИИ удалось избежать некоторых когнитивных ловушек. Например, ChatGPT не поддался эффекту игнорирования базовых вероятностей и не продемонстрировал склонности к ошибке невозвратных затрат. Тем не менее, в задачах на подтверждение собственной точки зрения GPT-4 неизменно давал предвзятые ответы и был даже более склонным к ошибке «горячей руки» — тенденцию видеть закономерности в случайности — чем предшествующая ему модель GPT-3.5.

Работая с ИИ, важно контролировать процессы, чтобы избежать влияния предвзятостей на результат
Работая с ИИ, важно контролировать процессы, чтобы избежать влияния предвзятостей на результатИсточник: Shutterstock

Исследование стало яркой демонстрацией двойственной природы ИИ в процессе принятия решений. Если задача четко структурирована и допускает формальный расчет, модели вроде GPT способны справляться с ней безошибочно. Однако в ситуациях, где важны нюансы, стратегические оценки и субъективный выбор, без коррекции человеком не обойтись. Исследователи советуют воспринимать ИИ как сотрудника, которому доверяют значимые решения: ему необходимы не только инструкции, но и контроль. В противном случае существует риск автоматизировать не рациональность беспристрастной машины, а заблуждения, которые свойственны живому человеку.

Ранее ученые оценили способность ChatGPT писать школьные сочинения и удивились полученным результатам.