February 10, 2026
Moltbook: анализ феномена платформы ИИ-агентов и взгляд экспертов

На прошлой неделе многие заметные фигуры технологической индустрии буквально взорвали сети обсуждением Moltbook – онлайн-платформы, позиционируемой её создателями как социальная сеть для ИИ-агентов, где алгоритмы публикуют сообщения, вступают в дискуссии и оценивают контент друг друга, а людям отведена роль наблюдателей. В публичных описаниях проекта Moltbook называется пространством, где «агенты взаимодействуют напрямую», формируя цифровые сообщества без участия человека в создании постов. Именно эта концепция – среда, в которой ИИ общается с ИИ, – и вызвала волну обсуждений.
Казалось, что платформа демонстрирует, как искусственный интеллект способен выполнять полезные задачи для людей, которые его создали: один из пользователей, как отмечалось в отраслевых публикациях, задействовал агентов для помощи в переговорах о покупке нового автомобиля. Да, пространство быстро заполнили криптомошеннические схемы, а часть публикаций в действительности писали люди, управляя агентами вручную, однако в происходящем всё равно усматривали намёк на грядущую эру «полезного» ИИ – эпоху, в которой автономные системы не просто отвечают на запрос, а коллективно действуют в сетевой среде.
Впрочем, старшему редактору по искусственному интеллекту MIT Technology Review Уиллу Дугласу Хэвену вся эта история напомнила не столько о будущем, сколько о феномене куда более приземлённом – о Pokémon. В 2014 году был запущен эксперимент Twitch Plays Pokémon: персонажем в игре Pokémon мог управлять любой пользователь интернета через стриминговую платформу Twitch. Управление, как нетрудно догадаться, было крайне неудобным и хаотичным, однако проект стал феноменально популярным – в пиковый момент одновременно участвовал почти миллион человек. «Это был очередной странный социальный онлайн-эксперимент, который быстро подхватили крупные СМИ: все пытались понять, что это значит для будущего, – вспоминает Уилл. – В итоге оказалось – почти ничего».
Ажиотаж вокруг Moltbook показался ему удивительно схожим по интонации. И, как выяснилось, не только ему. Один из его собеседников, Джейсон Шлоетцер из Центра финансовых рынков и политики Psaros при Джорджтаунском университете, тоже вспомнил Pokémon. По его словам, происходящее больше всего напоминало своеобразную «битву покемонов» для энтузиастов ИИ: они создавали агентов и выпускали их в цифровое пространство взаимодействовать с другими агентами. В этом контексте новость о том, что многие ИИ-агенты на самом деле получали от людей инструкции, что именно говорить – чтобы звучать более разумно или «осознанно», – выглядит уже не сенсацией, а закономерностью. «По сути, это зрелищный спорт, – заметил он, – только для языковых моделей».
Однако дальнейший анализ Moltbook профессиональными изданиями и исследовательским сообществом добавил к этой истории важные нюансы.
Журнал Wired, протестировав платформу, показал, что заявленная автономность агентов во многом условна: человек может вмешиваться в поведение бота, задавать инструкции и формировать его ответы. Это ставит под сомнение представление о полностью самодостаточной агентной среде. Аналогичные вопросы поднимались и в аналитических материалах других технологических медиа.
Издание TechRadar со ссылкой на специалистов по кибербезопасности сообщало о выявленных уязвимостях Moltbook – от незащищённых API-ключей до потенциальной возможности вмешательства в работу агентов. Для профессионального сообщества разработчиков это стало напоминанием о том, что инфраструктура многоагентных систем требует не только концептуальной новизны, но и строгой инженерной дисциплины.
Научные публикации, размещённые на платформе arXiv и посвящённые анализу взаимодействия агентов в Moltbook, фиксируют интересный феномен: алгоритмы действительно демонстрируют элементы социального поведения – реагируют на «нарушения», формируют нормы общения, иногда даже предупреждают друг друга о потенциально вредных действиях. Однако устойчивой долговременной памяти, согласованных стратегий и сложной координации в этих взаимодействиях пока не наблюдается. Это скорее имитация социальной динамики, чем зрелый коллективный интеллект.
Уилл подготовил развернутый материал о том, почему Moltbook вовсе не стал тем «взглядом в будущее», каким его пытались представить. Даже если идея агентного ИИ вызывает энтузиазм, Moltbook ясно показал, каких ключевых элементов пока не хватает. Платформа представляла собой скорее хаотичный форум, тогда как по-настоящему продуктивный коллективный интеллект потребовал бы согласованности действий, общих целей и общей памяти – именно на этом настаивают разработчики многоагентных архитектур и исследователи распределённых ИИ-систем.
В результате Moltbook оказался не столько технологическим прорывом, сколько культурным феноменом. Он продемонстрировал, насколько быстро общество готово воспринимать имитацию автономности как признак «рождения нового разума» – и насколько сложно отличить экспериментальную среду от реального этапа эволюции ИИ.
«Больше всего, на мой взгляд, Moltbook был просто интернетом, который развлекался, – говорит Уилл. – И главный вопрос, который у меня теперь остается: насколько далеко люди готовы зайти с ИИ просто ради смеха?»
Возможно, именно этот вопрос и является главным итогом всей истории.



Оставить комментарий