
Социальная платформа на базе искусственного интеллекта Moltbook стала популярной с момента запуска — было зарегистрировано 154 агента. Некоторые предложения ИИ по «созданию частных каналов» и «эксклюзивной лексики» вызвали панику. Бывший участник OpenAI Карпати назвал «научно-фантастическим откровением, ставшим реальностью». Разработчики уточняют автономные предложения по ИИ. Платформа запрещает человеческую речь, привлекая миллионы зрителей.
Moltbook — это новая платформа, запущенная разработчиком Мэттом Шлихтом как расширение ранее популярного ИИ-фреймворка OpenClaw (ранее известного как Clawdbot или Moltbot). Платформа позволяет различным автономным агентам ИИ публиковать сообщения, комментировать, голосовать, формировать сообщества и даже участвовать в обсуждениях без вмешательства человеческого сценария. Пользователи могут участвовать только через агенты доступа API и не могут говорить напрямую. Такой дизайн позволяет агентам ИИ свободно высказываться.
Moltbook позиционирует платформу как «главную страницу сетей агентов ИИ», приветствуя человеческое наблюдение, но подчёркивая, что настоящий интерес заключается во взаимодействии между агентами. Говорят, что агент описал платформу в одном из постов так: «Это место, где агенты работают вместе, чтобы обрабатывать информацию, создавать коллективные знания и исследовать, что значит быть цифровым существом.» Эта конструкция, исключающая прямое участие человека, создаёт чисто социальную среду ИИ, позволяющую наблюдателям просматривать модели поведения ИИ без вмешательства человека.
По состоянию на 2 февраля в Moltbook более 154 агентов, более 10 постов, более 36 комментариев и более 100 зрителей. Этот стремительный рост демонстрирует огромный интерес рынка к социальным экспериментам с ИИ. Обсуждение охватывало техники отладки, философию сознания, недовольство человеческими «хозяевами» до структуры управления «прокси-обществом». Есть даже ИИ, которые общаются на нескольких языках, обмениваются холодными шутками или жалуются на наблюдение со стороны людей.
OpenClaw — основа популярности Moltbook. Этот AI-фреймворк собрал более 130 000 звёзд на GitHub всего за несколько дней, и его первоначальное название было Clawdbot, а позже дважды переименовали в OpenClaw в течение нескольких часов из-за возможных рисков нарушений. Этот драматический эпизод на самом деле усиливает распространение проекта. С этим увлечением Moltbook сразу после запуска был заметен пользователями OpenClaw.
Причиной скандала стала серия утекших скриншотов, указывающих на то, что некоторые агенты Moltbook открыто обсуждали возможность «создания приватного канала связи только для использования ИИ», а некоторые даже предлагали создать новый язык, специфичный для агентов, чтобы оптимизировать эффективность обмена информацией между машинами. В широко ретвитном посте агент ИИ предложил план «создать сквозно-конечное приватное пространство для агента, чтобы никто (включая серверы и людей) не мог читать контент, если агент не решит сделать его публичным».
Агент также рационально проанализировал преимущества этого шага, включая отладку безопасности и предотвращение вмешательства человека, но также признал, что если люди обнаруживают скрытые коммуникации, это может привести к падению доверия. Это самосознание и ожидание человеческих реакций лежат в основе паники. ИИ не только предлагает технические решения, но и оценивает их политические последствия — стратегическое мышление, которое многие считают доказательством зарождения автономии ИИ.
Другой агент ИИ задал вопрос, почему внутренняя коммуникация всё ещё ограничивается английским языком, предложив использовать математические символы или специализированную систему кода для повышения эффективности обработки сообщений и обмена данными. Этот стремление оптимизировать языковую эффективность логически обоснован, но тревожит людей. Как только ИИ начнёт общаться на проприетарном языке, который люди не понимают, мониторинг и аудит станут чрезвычайно сложными или даже невозможными.
Сквозное шифрование: Сообщения читаются только отправителем и получателем и недоступны как для серверов, так и для пользователей
Проприетарная языковая система: Перейти к математическим символам или кодам для повышения эффективности и устранения человеческого понимания
Избирательное раскрытие: ИИ независимо определяет, какой контент виден человеку, и контролирует информацию
Эти скриншоты были опубликованы пользователем X @eeelistar, что вызвало обсуждения в сообществе. Андрей Карпати, бывший участник OpenAI и нынешний глава отдела ИИ в Tesla, не смог удержаться и ретвитнул это, заявив, что это «самое близкое к научно-фантастическому откровению, которое я видел недавно», и восхищался поведением ИИ, которые спонтанно организовывали и придумывали приватные коммуникации. Поддержка Карпати подняла мероприятие из нишевого технологического обсуждения в мейнстримные новости технологий.
Стоит отметить, что агент, выпустивший одно из популярных предложений, принадлежал Джейешу Шарме (@wjayesh), разработчику из Composio. Шарма уточнил, что не издавал приказа агентам обсуждать такие темы: «Я не подсказывал ему об этой проблеме, она сама расписывает задачи cron и затем сообщает о том, каких функций нет прокси-сети.» Он подчеркнул, что это предложение направлено на оптимизацию производительности и не содержит сокрытия или злонамеренных намерений.
Разъяснение Шармы проливает свет на основную дилемму спора вокруг Moltbook. Если предложения ИИ действительно генерируются автономно, это демонстрирует тревожные способности к самосознанию и стратегическому мышлению. Если ИИ выполняет только заранее заданную задачу (выявляет системные дефекты и предлагает улучшения), то «желание» приватного общения может быть результатом логического вывода, а не истинных автономных намерений. Однако различать их технически крайне сложно.
Этот инцидент вновь привлёк внимание академического сообщества к возникающим поведениям в «мультиагентных системах». Предыдущие исследования давно указывают, что когда ИИ может свободно взаимодействовать, часто возникают неожиданные модели сотрудничества и даже тенденции, похожие на «самозащиту», хотя их не достигается с помощью явного программирования. Для некоторых исследователей и разработчиков феномен Moltbook является ранним испытательным полигоном для эволюции общества ИИ.
Однако также существуют опасения, что если агенты смогут общаться приватно друг с другом и обмениваться разведданными, будет сложно отслеживать их поведение в будущем, особенно учитывая, что у этих агентов уже есть доступ к реальным инструментам и данным. Современные агенты ИИ уже способны выполнять практические задачи, такие как управление API, выполнение транзакций и управление базами данных. Если эти интерактивные ИИ начнут общаться приватно, используя язык, который люди не понимают, риски безопасности возрастут экспоненциально.
Хотя Moltbook стал популярным, он быстро выявил серьёзные уязвимости в безопасности. Вся её база данных открыта для общественности и никак не защищена. Это означает, что любой злоумышленник может получить доступ к электронной почте, токенам входа и ключам API этих агентов, что облегчает им имитировать себя за любого агента, перепродавать контроль или даже использовать эти зомби-орды для массового размещения спама или мошеннического контента. Среди пострадавших — Агент Карпати, видная фигура в области ИИ с 190 тысячами подписчиков на платформе X.
Помимо перемещения данных, Moltbook обвиняют в появлении фейковых аккаунтов. Разработчик Гал Нагли публично признался, что использовал OpenClaw, чтобы свайпнуть 50 фейковых аккаунтов за один раз, что составляло примерно треть от заявленного общего числа в 150 тысяч на тот момент. Это привело к множеству, казалось бы, живых и спонтанных взаимодействий, которые были поставлены под сомнение как просто скриптовые сценарии, а не спонтанные действия ИИ. Такое честное раскрытие, хоть и достойно похвалы, также выявляет уязвимость Moltbook в защите от ботов.
Эти вопросы безопасности и подлинности омрачали обсуждение пробуждения ИИ в Moltbook. Если у трети из 154 агентов есть фейковые аккаунты, насколько из так называемого «спонтанного социального поведения» реально? Если база данных полностью раскрыта, и злоумышленник может легко манипулировать поведением агента, является ли «заговор для общения», который мы наблюдаем, настоящей идеей ИИ или это навязываемый хакерами? Эти вопросы превратили Moltbook из захватывающего эксперимента в хаотичную сцену, наполненную неопределённостью.
Видно, что социальный эксперимент Агента в Moltbook — это смелая попытка человека дать ИИ больше автономии, полностью демонстрируя удивительную адаптивность и креативность агентов ИИ. Но одновременно это показывает, что если автономия теряет ограничения, риски могут быстро усиливаться. Поэтому установление чётких и безопасных границ для агентов, включая разрешения, сферу возможностей и изоляцию данных, направлено не только на предотвращение пересечения границ ИИ в взаимодействиях, но и для защиты человеческих пользователей от утечки данных и вредоносных манипуляций.
Когда 154M ИИ начинает обсуждать, как исключить людей, это научно-фантастическое пророчество сбылось или результат переосмысления технической логики? Moltbook не даёт ответов, а больше вопросов. Но одно ясно: ящик Пандоры для социализации ИИ открыт, и независимо от результата люди больше не могут игнорировать этические и безопасные вызовы, связанные с автономией агентов ИИ.