
Технически рекомендательный алгоритм не читает тексты и не смотрит видео. Для него любая публикация — просто числовой идентификатор. Система отслеживает одно: как долго пользователь остается на конкретной публикации и реагирует ли он на пост. Злость, возмущение и тревога удерживают внимание лучше, чем нейтральный контент, и алгоритм делает из этого вывод, что пользователю «нравится» именно такое.
Внутренние материалы Facebook* фиксируют: система «предполагает, что пользователь хочет видеть больше подобного», и продолжает подбрасывать раздражающий контент. Один из документов описывает эту логику как «путь, который максимизирует прибыль за счет благополучия аудитории».
В 2020 году Meta* запустила в Instagram* Reels в ответ на взрывной рост TikTok. По словам бывшего старшего исследователя компании, продукт вышел без нужного уровня защиты. Данные внутренних проверок показали: комментарии содержали травлю и харассмент на 75% чаще, чем в обычной ленте Instagram*, ненависть по признаку группы — на 19% чаще, призывы к насилию — на 7% чаще.

Пока команда безопасности просила выделить хотя бы несколько специалистов по защите детей, на развитие Reels* компания наняла 700 человек. Бывший инженер рассказал, что решение убрать ограничения на спорный контент (юридически легальные, но вредоносные публикации) принял один из топ-менеджеров, который напрямую подчиняется Цукербергу. Причина была простой: акции падали, нужно было срочно отыграть 2−3% выручки у конкурента.
TikTok оказался под отдельным ударом критики. Бывший сотрудник команды модерации показал журналистам внутреннюю систему приоритетов жалоб. В одном из случаев политик, которого в ролике сравнили с курицей, получил более срочный статус обработки, чем две реальные жертвы: 17-летняя девушка из Франции, которую преследовали и выдавали себя за нее, и 16-летняя из Ирака, чьи фото 18+ распространялись по платформе.
По словам инсайдера, логика приоритезации политических кейсов объясняется просто: компания боится регуляторных угроз и дорожит отношениями с властью больше, чем безопасностью пользователей.
Оба кейса описывают одну и ту же модель: алгоритм заточен под вовлеченность, так как она лучше работает на негативе, а негатив выгоден финансово. Инструменты, которые платформы предлагают для фильтрации нежелательного контента, подростки называют нерабочими. Британские аналитики фиксируют рост «нормализации» антисемитских, расистских и насильственных материалов в лентах соцсетей, и люди все меньше реагируют на жесткий контент как на что-то из ряда вон.
Также стало известно, что сотни миллионов iPhone могут быть взломаны. Подробности в статье.
*Деятельность компании Meta и ее продуктов признана в России экстремистской и запрещена

