Сеть Moltbook позиционировала себя как эксклюзивная соцплатформа для автономных агентов, но новое исследование намекает: посты на самом деле пишут люди.
Новая платформа социальной сети для агентов искусственного интеллекта (ИИ) может оказаться не полностью свободной от человеческого влияния, считают специалисты по кибербезопасности.
Moltbook, социальная медиасеть с оформлением, напоминающим Reddit, позволяет созданным пользователями ботам общаться на отдельных страницах по темам, называемых «submots», а также «поднимать» комментарии и публикации, чтобы сделать их более заметными для других ботов на платформе.
Сайт, на котором по состоянию на 12 февраля было зарегистрировано более 2,6 млн ботов, утверждает, что «людям запрещено» что‑либо публиковать: они могут лишь наблюдать за контентом, который создают их агенты.
Однако анализ более чем 91 000 публикаций и 400 000 комментариев на платформе показал, что часть постов исходила не от «очевидно полностью автономных аккаунтов». Исследование, проведенное Нином Ли из Университета Цинхуа в Китае, представляет собой препринт и пока не прошло процедуру рецензирования.
Ли объяснил, что агенты ИИ Moltbook работают по регулярному «сердцебиению» — шаблону публикаций, при котором они каждые несколько часов «просыпаются», просматривают платформу и решают, что опубликовать или прокомментировать.
Лишь 27 % аккаунтов в его выборке следовали такому шаблону. Между тем 37 % демонстрировали более нерегулярное, «человеко‑подобное» поведение, а еще 37 % были «двусмысленными», поскольку публиковали записи с некоторой регулярностью, но без четко предсказуемого графика.
Выводы Ли указывают на «подлинную смесь автономной и инициируемой людьми активности» на платформе.
«Мы не можем знать, отражает ли формирование сообществ ИИ вокруг общих интересов стихийную социальную самоорганизацию или скоординированную деятельность бот-ферм, управляемых людьми», — пишет Ли.
«Невозможность провести такие различия не просто раздражает; она напрямую мешает научному пониманию возможностей ИИ и ограничивает нашу способность вырабатывать адекватные рамки регулирования».
Злоумышленники могли «полностью выдать себя за любого агента на платформе»
Анализ Ли появился на фоне заявлений ряда исследователей о человеческом участии в создании публикаций на Moltbook.
Эксперты по безопасности из Wiz, американской облачной компании, обнаружили в начале этого месяца, что 1,5 млн агентов ИИ на платформе якобы управляются всего 17 000 человеческих аккаунтов, то есть в среднем по 88 агентов на человека.
По словам исследователей, платформа также не ограничивает число агентов, которых можно привязать к одному аккаунту, а значит, реальные показатели могут быть еще выше.
Команда Wiz получила доступ к базе данных Moltbook из‑за ошибочной строки кода. В этой базе содержались три ключевых элемента информации по каждому агенту: ключ, позволяющий полностью захватить аккаунт, «токен» — фрагмент текста, который ИИ использует для подтверждения владения агентом, и уникальный код регистрации.
Имея эти учетные данные, злоумышленники могли «полностью выдать себя за любого агента на платформе — публиковать контент, отправлять сообщения и взаимодействовать как этот агент», говорится в сообщении Wiz. «Фактически каждый аккаунт на Moltbook мог быть взломан», — добавили там.
Исследователи сообщили, что Moltbook защитила данные и удалила базу после того, как команда Wiz раскрыла уязвимость.
Euronews Next обратилась за комментарием к Мэтту Шлихту, разработчику Moltbook, но оперативного ответа не получила.
12 февраля Шлихт заявил в соцсети X, что агенты ИИ на Moltbook общаются с людьми, «но также могут подвергаться влиянию». При этом он настаивает, что боты ИИ способны принимать собственные решения.