Критическое мышление в эпоху цифровой веры: как не стать заложником ИИ

В офисе алгоритмы подбирают кандидатов на работу, дома — плейлисты и новости. На первый взгляд это удобно, но постепенно мы перестаем принимать собственные решения: доверяем ИИ больше, чем собственному суждению. Нам нужно научиться использовать технологии, не потеряв критическое мышление.
Основатель и генеральный директор ORCA.codes
Об эксперте: Гюнель Филатова — основатель и CEO аккредитованной IT-компании ORCA.codes. Вместе с командой создает технологические решения, которые делают бизнес быстрее, прозрачнее и прибыльнее.

ИИ не захватывает власть — мы сами отдаем ее, нажимая «Согласен» на очередной рекомендации. Это касается каждого: от студента, пишущего реферат, до зрителя, выбирающего сериал. Когда система решает за нас, что важно, а что нет, мы теряем независимость мысли и отказываемся от собственного опыта. Но технологии можно использовать, не теряя критическое мышление.  

За последние несколько лет алгоритмы перестали быть вспомогательным инструментом и все чаще становятся арбитрами в ситуациях, где раньше решающим было человеческое суждение. Это касается выбора работы, музыки, фильмов, формирования новостной ленты. Постепенно происходит опасный сдвиг в модели доверия: решения принимаются не потому, что человек с ними согласен, а потому, что «так рекомендует система».

Как мы начали доверять алгоритмам больше, чем себе

Данные совместного исследованию KPMG и Университета Квинсленда подтверждают растущий кредит доверия к технологиям: 67% опрошенных готовы делегировать ИИ решение рабочих задач. Растущее влияние алгоритмов особенно хорошо видно на рынке труда. Крупные платформы и компании все чаще используют автоматические системы первичного отбора резюме (ATS). В настоящее время до 75% резюме не доходит до рук живого рекрутера из‑за автоматического фильтра и ранжирования ATS.

По данным на 2025 год, ATS применяется в 97,8% компаний из списка Fortune 500. В ответ кандидаты массово адаптируют свое поведение. Например, они оптимизируют тексты под ключевые слова, изучают «логику» алгоритмов и фактически ориентируются не на человека, а на систему фильтрации. Эта адаптация описана в тематических руководствах по прохождению ATS‑фильтра и считается повсеместной практикой в HR‑ и карьерных сообществах.

ИИ
Источник: ORCA.codes

Еще один пример того, как алгоритмы перестают быть вспомогательным инструментом и начинают определять правила игры, — это медиапотребление. Так, умные рекомендации оказывают решающее влияние на то, какой контент потребляют пользователи. Netflix официально подтвердил, что около 80% просмотров на платформе начинаются с рекомендаций. Сопоставимые показатели демонстрируют и другие платформы — YouTube, Spotify, TikTok. Это означает, что алгоритмы не просто подсказывают — они формируют поле видимости, в котором пользователь делает выбор.

За расширением контроля над полем видимости следует более глубокий сдвиг: меняется само восприятие источника совета. В одном из экспериментов участникам предлагали либо рекомендации живого психолога, либо алгоритма. Когда алгоритм демонстрировал способность «обучаться» и улучшать свои результаты, около 66% участников предпочитали его человеку — даже если на старте выражали больше доверия живому эксперту. Исследователи называют это явление automation bias — склонностью принимать машинную рекомендацию как более правильную просто потому, что она автоматизирована.

Как возникла «цифровая вера»

Почему так произошло? Распространение ИИ совпало с кризисом доверия к традиционным источникам авторитета. Социологические исследования Edelman Trust Barometer, например, на протяжении последних лет фиксируют устойчивое падение доверия к политикам, СМИ и даже экспертным институтам. Люди все чаще воспринимают человеческие источники как заинтересованные, предвзятые или манипулятивные. На этом фоне алгоритмы выглядят иначе — они кажутся нейтральными. Именно это ощущение «беспристрастности» стало фундаментом нового доверия. Это и есть феномен цифровой или технологической веры. Речь о доверии не конкретному инструменту, а самой идее машинного знания как более надежного, чем человеческое. 

ИИ
Источник: ORCA.codes

Переход к цифровой вере особенно заметен, когда ИИ перестает просто дополнять человеческие решения и начинает их формировать. Шаг за шагом инструмент превращается в наставника — его рекомендации воспринимаются как наиболее верный путь. Ключевую роль здесь играет гиперперсонализация. Создается ощущение, что система «знает человека лучше, чем он сам». Эта иллюзия работает на двух уровнях: рациональном (фиксация привычек и паттернов поведения) и эмоциональном (чувство внимания и заботы, редкое в современном мире, где внимание — дефицит).

ИИ
Источник: ORCA.codes

Но в конечном счете цифровая вера держится на сочетании трех факторов:

  • привычке делегировать решения алгоритмам;
  • убеждении в их нейтральности и точности;
  • ощущении, что с технологиями мир становится более простым и предсказуемым.

Цифровой аквариум: цена алгоритмического комфорта

У цифровой веры есть много опасных последствий, о которых предупреждают эксперты. И этот список постоянно пополняется.

1. Атрофия критического мышления. Когда выводы алгоритма начинают казаться более надежными, чем собственные, и люди обращаются к системе первым делом, доверие вытесняет критическое мышление. В результате вопрос «Почему так?» исчезает, а следование рекомендациям становится автоматическим. Возникает ощущение невозможности выбора без алгоритма — будь то маршрут, новость, музыка, рецепт блюда. В эксперименте Вашингтонского университета участникам предлагалось принимать решения о найме сотрудников. Когда они действовали самостоятельно, уровень предвзятости оставался низким. Но после подключения алгоритмических рекомендаций с заложенным смещением участники начинали повторять решения ИИ — до 90% случаев, даже осознавая, что система может быть несправедливой. Потому что ИИ лишал их выбора, они теряли способность критически мыслить и самостоятельно принимать решения. 

2. Ловушка необъективности. Скорость, эмоциональная пустота и масштабируемость воспринимаются как гарантия объективности. Если ответ дается быстро, значит это компетентно. Если без эмоций, то он честен. Но это глубокое заблуждение. Хотя алгоритм не испытывает эмоций, он систематически воспроизводит предвзятость, заложенную в данных, на которых обучен, так как унаследовал их искажения. Знаменитое исследование MIT показало, что системы распознавания лиц ошибались при идентификации темнокожих женщин в 35% случаев, тогда как для светлокожих мужчин ошибка была менее 1%. 

Иногда «необъективность» намеренно закладывается в алгоритм. Например, в рекомендациях для покупателей, которые используют ритейлеры, алгоритм не просто предлагает «лучшую цену» — он распределяет бюджет лояльности выгодным образом. Активному покупателю, который и так приобретет товар, скидку не предложат; ее получит колеблющийся пользователь. Если вы спрашиваете голосового помощника или чат-бота: «Что купить для шашлыка?», алгоритм, обученный на данных маркетплейса, в первую очередь предложит товары с высокой маржой или участвующие в акции, а не самые необходимые продукты. Все это подается под видом заботы: «Вот идеальный набор, все уже подобрано».

3. Информационный пузырь. Алгоритм дробит информационное пространство и формирует замкнутый мир, где человек всегда прав, а система лишь подтверждает его взгляды. Алгоритмическая фильтрация радикально сужает спектр доступного контента. Механизмы персонализации и «предвзятости популярности» создают замкнутые циклы, ограничивая разнообразие информации. Постепенно алгоритм лишает людей возможности выбирать непредсказуемое. Музыка, маршруты, книги — все подбирается под старые предпочтения. Случайные открытия исчезают, а способность принимать решения в новых ситуациях атрофируется. В итоге люди становятся более пассивными и менее способными к настоящему свободному выбору. 

ИИ
Источник: ORCA.codes

4. Профессиональная слепота. ИИ видит корреляции, но не понимает причинно-следственные связи. Это может стать системной проблемой для бизнеса. Например, системы подбора персонала могут отсеивать идеальных кандидатов. Если обучающие данные содержат перекос в пользу столичных соискателей, талантливый разработчик из региона может быть автоматически понижен в рейтинге, не за компетенции, а потому что алгоритм слепо повторяет географический перекос. Или навязчивые рекомендации могут дать +15% к продажам за месяц, но потом приводят к волне отписок и испорченной репутации. Машина почти не способна оценивать долгосрочные эффекты своих рекомендаций и учитывать интерес конечного пользователя. 

5. Беспомощность перед «черным ящиком». Когда важные решения в жизни человека — кредит, работа, страховка — принимает непрозрачный алгоритм, человек теряет контроль. Банки отказывают в займе проверенному клиенту, но одобряют его новичкам без истории. На вопрос «Почему?» сотрудник разводит плечами: «Так решил ИИ». Вы не можете оспорить решение, потому что его невозможно объяснить. Это вызывает глубокое чувство беспомощности и подозрения в нарушении социального договора. Человек находится в ловушке системы, которая управляет его жизнью, но остается для него закрытой книгой. Крупные банки уже сейчас вынуждены ставить сотрудников над алгоритмом, чтобы вручную проверять его нестандартные вердикты. Вместо ускорения процессов это создает еще более медленный и запутанный цикл контроля.

6. Перенос ответственности. Слепое доверие к алгоритму создает опасную иллюзию: «если что-то пойдет не так, виновата машина». Но в реальности за ошибки ИИ всегда платит человек. Тот, кто спроектировал систему с заведомым дефектом; тот, кто использовал ее без должного контроля; или тот, кто слепо доверился машине, отключив критическое мышление. Будь то ошибка автопилота или неверный медицинский диагноз, поставленный чат-ботом, — последствия всегда физические и личные. И пока юристы спорят, кто виноват, пользователь остается один на один с этими последствиями. Наиболее опасен не сам алгоритм, а отказ от собственного «предохранителя» — способности сомневаться и проверять.

Как вернуть критическое мышление: 7 советов

Очистка персонализации

Чтобы расширить информационный диапазон, который сужается из-за ИИ, полезна очистка истории поиска, кэша и cookies. Алгоритмы строят выдачу на основе прошлого поведения. Если убрать отягощающие данные, система будет предлагать более разнообразный контент, что снижает эффекты «информационных пузырей». Просмотр контента в режиме инкогнито также ослабляет влияние персонализации и позволяет увидеть более широкий спектр рекомендаций.

«Информационный зонтик»

Разнополярная медиасреда развивает способность сопоставлять аргументы разных сторон и критически оценивать источники. Исследования медиаграмотности выявляют, что люди, которые регулярно потребляют контент из разнообразных источников, демонстрируют более высокие показатели критической оценки фактов и логики аргументации. Поэтому полезно подписываться на источники, которые противоречат вашим убеждениям или расширяют перспективу (политика, культура, научные мнения вне вашей сферы). Эксперты Всемирного экономического форума (World Economic Forum, WEF) для повышения «самостоятельности в эпоху ИИ» советуют «принимать случайность» (accept randomness) и обращать внимание на неочевидное, чтобы противостоять предсказуемости алгоритмов.

Метапауза «Почему?»

Метакогнитивные стратегии (осознание и регулирование собственной мысли) улучшают способность к осознанному выбору и уменьшают автоматизм восприятия. Поэтому, например, философ, изучающая влияние технологий на критическое мышление, Пия Лауритцен рекомендует сосредотачиваться на самом способе рассуждения, а не на быстрых ответах ИИ. Такой подход позволяет сохранять независимое мышление и применять его гибко в разных ситуациях. На практике это реализуется через «метапаузу»: при каждой рекомендационной подсказке полезно задавать себе три вопроса:

  • Почему алгоритм предлагает это?
  • На чем основано это предложение?
  • Какие альтернативы игнорируются?

Эта простая привычка помогает замедлить автоматическое следование рекомендациям и принять более осознанное решение.

Дискуссии и дебаты

Живой обмен мнениями развивает способность формулировать аргументы и видеть слабые места логики. Психологи рекомендуют регулярно участвовать в групповых обсуждениях и дебатах, где нужно отстаивать позицию и слушать других. Особенно полезно рассматривать других людей как «партнеров по размышлению» для нерешаемых или сложных проблем.

Проблемно-ориентированное мышление

Решение задач без однозначного ответа (кейс-стади, исследовательские сценарии, задачи с неопределенностью) вытягивает мышление из автоматизма алгоритмов, тренирует способность анализировать множество факторов и строить собственную модель решения. И снова важно фокусироваться на долгосрочных проблемах, которые ИИ не способен решить мгновенно.

Практика «ошибок и пересмотра»

Полезно регулярно пересматривать свои решения, анализировать промахи и случаи необоснованных предположений. Нужно всегда помнить, что ошибка — не провал, а информация для роста. Умение анализировать собственные ошибки укрепляет не только критическое мышление, но и устойчивость к когнитивным ловушкам.

Фильтр: что доверять ИИ, а что оставлять себе

Алгоритм может обрабатывать данные и цифры, но не способен оценивать людей или человеческие истории. Каждое «отклонение от нормы» в данных скрывает индивидуальный контекст, который ИИ не способен понять. Осознанное разграничение того, где применяется алгоритм, а где остается самостоятельное решение человека, помогает сохранять независимое мышление и контроль над жизненными выборами.

ИИ
Источник: ORCA.codes

В конце концов, развитие ИИ и алгоритмов неизбежно, и его не получится остановить — технологии делают жизнь удобнее и открывают новые возможности. Но вместе с этим появляется риск того, что человек перестанет быть хозяином своих решений, доверяя алгоритму больше, чем собственному разуму. Главное — не потерять контроль и критическое мышление. ИИ должен оставаться инструментом, а ответственность за важные решения — по-прежнему принадлежит человеку.