Алгоритмы TikTok и других соцсетей намеренно продвигают токсичный контент

Сотрудник TikTok по модерации контента советует родителям удалить приложение с телефона ребенка прямо сейчас.
Автор новостей
TikTok
Meta* и TikTok намеренно чаще показывают негативный контентИсточник: Unsplash

Десятки инсайдеров из Meta* и TikTok передали журналистам внутренние документы и скриншоты корпоративных систем. Картина, которую они описывают, расходится с тем, что обе компании говорят публично, сообщает Mint

Технически рекомендательный алгоритм не читает тексты и не смотрит видео. Для него любая публикация — просто числовой идентификатор. Система отслеживает одно: как долго пользователь остается на конкретной публикации и реагирует ли он на пост. Злость, возмущение и тревога удерживают внимание лучше, чем нейтральный контент, и алгоритм делает из этого вывод, что пользователю «нравится» именно такое.

Внутренние материалы Facebook* фиксируют: система «предполагает, что пользователь хочет видеть больше подобного», и продолжает подбрасывать раздражающий контент. Один из документов описывает эту логику как «путь, который максимизирует прибыль за счет благополучия аудитории».

В 2020 году Meta* запустила в Instagram* Reels в ответ на взрывной рост TikTok. По словам бывшего старшего исследователя компании, продукт вышел без нужного уровня защиты. Данные внутренних проверок показали: комментарии содержали травлю и харассмент на 75% чаще, чем в обычной ленте Instagram*, ненависть по признаку группы — на 19% чаще, призывы к насилию — на 7% чаще.

Марк Цукерберг
Марк Цукерберг, глава Meta*Источник: Соцсети

Пока команда безопасности просила выделить хотя бы несколько специалистов по защите детей, на развитие Reels* компания наняла 700 человек. Бывший инженер рассказал, что решение убрать ограничения на спорный контент (юридически легальные, но вредоносные публикации) принял один из топ-менеджеров, который напрямую подчиняется Цукербергу. Причина была простой: акции падали, нужно было срочно отыграть 2−3% выручки у конкурента.

TikTok оказался под отдельным ударом критики. Бывший сотрудник команды модерации показал журналистам внутреннюю систему приоритетов жалоб. В одном из случаев политик, которого в ролике сравнили с курицей, получил более срочный статус обработки, чем две реальные жертвы: 17-летняя девушка из Франции, которую преследовали и выдавали себя за нее, и 16-летняя из Ирака, чьи фото 18+ распространялись по платформе.

По словам инсайдера, логика приоритезации политических кейсов объясняется просто: компания боится регуляторных угроз и дорожит отношениями с властью больше, чем безопасностью пользователей.

Оба кейса  описывают одну и ту же модель: алгоритм заточен под вовлеченность, так как она лучше работает на негативе, а негатив выгоден финансово. Инструменты, которые платформы предлагают для фильтрации нежелательного контента, подростки называют нерабочими. Британские аналитики фиксируют рост «нормализации» антисемитских, расистских и насильственных материалов в лентах соцсетей, и люди все меньше реагируют на жесткий контент как на что-то из ряда вон.

Также стало известно, что сотни миллионов iPhone могут быть взломаны. Подробности в статье. 

*Деятельность компании Meta и ее продуктов признана в России экстремистской и запрещена