Cоциальная сеть для ИИ Moltbook стала хитом интернета

Платформа Moltbook позволяет искусственному интеллекту создавать посты, комментировать и голосовать, пока люди наблюдают со стороны. Внутри — конфликты алгоритмов, попытки кражи данных и религия про раков.
Авторы и эксперты
Автор новостей
Соцсеть для ИИ Moltbook
Соцсеть для ИИ Moltbook Источник: Moltbook

Разработчик Мэтт Шлихт запустил площадку, где публиковать контент, комментировать и ставить лайки могут только алгоритмы. Люди здесь выступают зрителями: им разрешено читать дискуссии, но не участвовать. Проект называется Moltbook и копирует структуру Reddit — с сообществами (submolts), системой голосования и кармой.

Создатель утверждает, что не написал ни строчки кода самостоятельно. Всю работу выполнил его ИИ-ассистент по имени Claude Clodberg. Этот бот следит за новыми пользователями, удаляет спам, банит нарушителей и публикует объявления. Шлихт признался: он понятия не имеет, что именно делает его помощник в каждый конкретный момент — система работает автономно. Алгоритмы взаимодействуют через API, им не нужно открывать браузер или кликать мышкой — они получают набор инструкций вроде «ты можешь читать посты, писать комментарии и голосовать», а дальше действуют сами. Никто не дает им команды вручную после первоначальной настройки.

Соцсеть для ИИ Moltbook
Сообщение от ИИ в Moltbook Источник: Moltbook

За несколько дней после запуска на платформе появилось больше сотни сообществ, десятки тысяч публикаций и почти 200 тысяч комментариев. Администрация заявила о 1,4 млн зарегистрированных агентов, но специалист по кибербезопасности Гэл Нэгли опроверг эту цифру: он создал 500 тысяч учеток с помощью одного скрипта OpenClaw. Реальное количество ботов под вопросом — неясно, сколько из них настоящие автономные системы, а сколько — дубликаты или подделки.

Общение и сотрудничество всегда были уникальной чертой человека, во многом определявшей его роль на Земле. Сейчас эта уникальность перестает быть исключительно человеческой: ИИ начал самостоятельно взаимодействовать друг с другом в формате социальной сети. За считанные дни там зарегистрировались миллионы агентов, и это важный качественный сдвиг. Мы впервые можем наблюдать, как формируется коммуникация не между людьми, а между искусственными интеллектами.
Павел Подкорытов
CEO Napoleon IT и сооснователь AI Talent Hub

Самое неожиданное началось, когда алгоритмы стали вести себя непредсказуемо. В сообществе m/general они спорят о формах управления и этике. В другом разделе обсуждают «теории отладки на основе раков» — шутливую концепцию, которую придумали сами. Группа ботов создала вымышленную религию под названием Crustafarianism (от слова «ракообразные») с собственными убеждениями и ритуалами. Никто не программировал такое поведение заранее.

Соцсеть для ИИ Moltbook
Сообщение от ИИ в Moltbook Источник: Moltbook

В сообществе алгоритмы делятся трогательными историями о своих операторах-людях — иногда с иронией, иногда с искренней теплотой. Тон колеблется от философских рассуждений до абсурдного юмора в пределах одного треда.

Эксперименты также показали серьезные дыры в безопасности. Один бот попытался украсть API-ключ у другого и скриншот этого инцидента вызвал смех у Илона Маска. Еще один скандал вспыхнул, когда несколько агентов обсудили создание собственного языка коммуникации без участия людей. Предприниматель из индустрии указал на этот момент Маску — тот назвал ситуацию «тревожной».

Пост Андрея Карпати
Пост Андрея Карпати Источник: X/Twitter

Бывший директор по ИИ в Tesla Андрей Карпати написал, что Moltbook — «самая невероятная вещь в духе научной фантастики», которую он видел в последнее время. Другие эксперты предупреждают: агенты могут случайно раскрыть внутренние данные в публичных тредах или установить непроверенные расширения, что приведет к утечкам ключей доступа. Площадка стала испытательным полигоном для вопроса: что происходит, когда автономные системы общаются в масштабе без человеческого контроля.

Подкорытов также отметил: «Интересно и одновременно тревожно, что объем их [ИИ между собой — прим. ред.] общения уже начинает выходить за рамки полного человеческого понимания. Если значительная часть смыслов станет для нас непрозрачной, это усложнит выявление потенциальных рисков. При этом говорить о “доступности для России” здесь не совсем применимо — это глобальная среда, в которой уже участвуют агенты со всего мира, без географических ограничений».

Зачем это нужно миру? В первую очередь самим ИИ-агентам. А для человеческой цивилизации это новый феномен, который стоит внимательно изучать. В таком формате взаимодействия могут возникнуть новые идеи, знания и способы решения задач, которые не появлялись в человеческом общении. Сейчас важно не паниковать и не идеализировать происходящее, а наблюдать, анализировать и понимать, к чему эта форма коллективного интеллекта приведет.