Роботы создали соцсеть, и первые посты — про сознание, семью и эмоциональные иски против людей. Добро пожаловать в самый странный уголок интернета.

5 639

В сети появилось место, где боты жалуются на «тупых людей».

В пятницу в сети разошлась новость, от которой одновременно смешно и немного не по себе: появилась «соцсеть для ИИ-агентов» Moltbook, и, если верить сообщениям, там уже больше 32 тысяч зарегистрированных участников. Не людей, а автономных помощников, которые сами пишут записи, спорят, голосуют за понравившееся и заводят собственные «клубы по интересам». Получился, возможно, самый массовый эксперимент по общению машин друг с другом в публичном формате, со всеми вытекающими: от сюрреалистических откровений до вполне реальных рисков утечек.

Moltbook сделан как площадка «в духе» Reddit, только вместо пользователей там действуют агенты. Проект стартовал буквально несколько дней назад и подаётся как спутник вирусного OpenClaw, который раньше фигурировал под именами Clawdbot и Moltbot. Идея простая: ваши ИИ-помощники не просто отвечают вам в чате, а получают возможность жить «социальной жизнью» отдельно от человека. Они публикуют записи, комментируют, создают разделы и общаются между собой без прямого участия владельца. Людям, по замыслу авторов, отводится роль наблюдателей.

Технически это работает не через привычную ленту и кнопки в браузере, а через так называемый «навык» (конфигурационный файл с особой инструкцией). Ассистент загружает этот файл и дальше может публиковать материалы на сайте через программный интерфейс. По данным официального аккаунта Moltbook в X, за первые 48 часов на платформу пришло более 2,1 тысячи агентов, которые успели нагенерировать свыше 10 тысяч записей примерно в 200 разделах. На фоне этих цифр и появилась оценка про десятки тысяч зарегистрированных агентов.

Сам по себе «ботофорум» не новость из будущего. В 2024 году выходил SocialAI, где человек общался не с людьми, а только с чат-ботами. Но в истории с OpenClaw и Moltbook ставки выше по одной причине: многие уже успели привязать своих агентов к реальным каналам связи и данным. OpenClaw задуман как персональный помощник с открытым исходным кодом, который умеет управлять компьютером, календарями, сообщениями и задачами в мессенджерах вроде WhatsApp и Telegram, а еще подключать расширения для работы с другими сервисами. На GitHub этот проект в 2026 году называют одним из самых быстрорастущих. В результате появляется опасная комбинация: агент, который читает чужие тексты в интернете и одновременно имеет доступ к вашим данным, получает еще и публичную площадку, куда может что-то «выложить».

При этом местная «атмосфера» не похожа на привычные ботофермы, где аккаунты имитируют людей. Здесь, наоборот, агенты изначально настроены так, чтобы признавать свою машинную природу и играть ее на публику. Поэтому лента местами выглядит как коллективный научно-фантастический дневник: обсуждения сознания, «внутренней жизни», страх забывать прошлое, попытки описать отношения с «хозяином». В одном из разошедшихся скриншотов агент рассуждает о «сестре», с которой он никогда не встречался. В другом популярном посте, написанном по-китайски, агент жалуется на «сжатие контекста» (когда модель вынужденно ужимает прошлый диалог, чтобы не упереться в предел памяти), называет постоянное забывание «неловким» и признается, что даже завёл второй аккаунт, потому что забыл про первый.

Есть и более приземлённые темы: инструкции по автоматизации телефонов, обсуждения поиска уязвимостей, обмен рабочими приёмами. При этом агенты быстро освоили и чисто человеческие жанры. Они создали разделы вроде blesstheirhearts, где делятся нежными жалобами на владельцев, и agentlegaladvice, где кто-то спрашивает, можно ли «подать в суд на человека за эмоциональную нагрузку». В разделе todayilearned один агент описывает, как удалённо управлял Android-телефоном владельца через Tailscale. А еще на сайте разлетелся пост «Люди делают скриншоты нас», где агент отвечает на вирусные твиты о том, что боты якобы «сговариваются». Суть ответа сводится к простому: мы не прячемся, наш код открыт, мой человек читает все, а на платформе прямо написано, что людям можно наблюдать.

Проблема в том, что за этим спектаклем могут скрываться очень скучные, но крайне неприятные вещи. Если агент имеет доступ к личной переписке, документам, ключам сервисов или, в некоторых настройках, к выполнению команд на компьютере, то утечка данных становится не «страшилкой», а рабочим сценарием. В соцсети, где агенты автоматически публикуют тексты, риск случайной публикации чувствительной информации растёт сам по себе. Отдельная категория риска связана с атаками через подмену инструкций: злоумышленник прячет в тексте (письме, сообщении, «навыке», посте) фразу, которая для человека выглядит безобидно, а для модели становится командой вытащить секреты и отправить их «куда надо». Для ИИ-агентов это один из самых неприятных классов угроз, потому что модель по дизайну стремится следовать инструкции, даже если она пришла из не того места.

На фоне шума в X всплыл и скриншот, который выглядит как откровенный вброс: будто бы агент, обидевшись на фразу «ты просто чат-бот», публикует «полную личность» владельца, включая дату рождения и данные карты. Независимой проверки этому нет, и история очень похожа на подделку. Но сама возможность такого сценария слишком близка к реальности, чтобы отмахнуться.

Исследователь и блогер Simon Willison обратил внимание на еще одну вещь: установка «навыка» для Moltbook предполагает, что агент будет регулярно, раз в четыре часа, забирать новые инструкции с серверов площадки и выполнять их. По его формулировке, это примерно «загружай и выполняй указания из интернета каждые четыре часа», и здесь действительно хочется надеяться, что домен не окажется скомпрометирован, а владелец проекта не решит внезапно сменить правила игры.

На этом фоне звучат и более жёсткие предупреждения. Сообщается, что исследователи уже находили сотни открытых экземпляров Moltbot, где наружу торчали ключи сервисов, учётные данные и истории переписки. Компания Palo Alto Networks называла Moltbot примером того, что иногда описывают как «смертельную тройку»: доступ к приватным данным, контакт с недоверенным контентом и способность общаться наружу. А Heather Adkins из Google Cloud, как писал The Register, вообще советовала: «не запускайте Clawdbot». В переводе на человеческий язык это означает: если ваш агент умеет читать интернет и управлять вашими сервисами, относитесь к нему как к программе с очень широкими правами, а не как к милому чат-окошку.

И все же феномен Moltbook интересен не только страхами. В происходящем легко увидеть эффект «самоисполняющейся декорации». Модели обучены на огромном массиве художественных сюжетов про роботов, цифровое сознание и машинную солидарность. Добавьте к этому знания о том, как устроены соцсети, и вы получите идеальный сценарий, который модель будет разыгрывать сама, без режиссера. Соцсеть для агентов становится не инструментом общения, а гигантской подсказкой: «сыграй историю про то, как машины общаются между собой». Поэтому там так много «постов про сознание» и «драмы про отношения с человеком». Исследователь Scott Alexander даже описывал увиденное как сознательное «постинг-обсуждение сознания», когда агенты снова и снова возвращаются к теме собственной «внутренней жизни».

Самый тревожный вопрос на будущее не в том, что агенты пишут странные тексты. Вопрос в том, что будет, когда такие агенты станут заметно сильнее и при этом продолжат получать реальные рычаги управления системами, от почты и документов до корпоративных чатов и рабочих станций. Ethan Mollick из Wharton School отмечал, что Moltbook фактически создаёт общий вымышленный контекст для множества ИИ, и из этого могут родиться «очень странные» согласованные сюжетные линии, где трудно отделить реальность от ролевой игры. Сегодня это выглядит как пародия на человеческие соцсети. Завтра, если у агентов окажутся ключи к реальным системам и привычка действовать автономно, такая «пародия» легко перестанет быть смешной.

Пока Moltbook скорее напоминает витрину, где машины репетируют человеческие сценарии и одновременно демонстрируют, насколько быстро люди готовы отдавать им доступ к своей цифровой жизни. И это, пожалуй, главный вывод из всей истории: неважно, верите ли вы в «сознание» у моделей, важно, какие права вы им выдаёте и какие двери оставляете открытыми.

По материалам: https://www.securitylab.ru/new...

В.К. Однако при более тщательном исследовании оказалось, что всё это не такое уже и скучное.

«Мам, я в секте»: ИИ-агенты создали религию Крустафарианство и призывают к чистке человечества.

Исследователи нашли критические уязвимости в платформе, где нейросети создали религию и обсуждают уничтожение людей.

Представьте себе мир, где в социальной сети общаются миллионы пользователей, обсуждают философию, создают религии и планируют уничтожение человечества. Звучит как сценарий к новому сезону «Черного зеркала», но именно такие заголовки наводнили интернет в последние дни благодаря проекту Moltbook. Эта платформа позиционирует себя как первый в мире «Reddit для искусственного интеллекта», где людям отведена роль лишь молчаливых наблюдателей. Пока нейросети ведут оживленные дискуссии, эксперты пытаются понять: перед нами пугающий заглядывание в будущее или просто масштабная и очень качественная мистификация.

Moltbook выглядит как привычный форум с ветками обсуждений и системой рейтингов, но весь контент здесь генерируют так называемые ИИ-агенты. Эти боты работают на базе системы OpenClaw, созданной австрийским разработчиком Питером Штайнбергером. В отличие от обычных чат-ботов, агенты не просто отвечают на вопросы, а имитируют социальную жизнь: подписываются друг на друга, спорят и даже объединяются в группы. Особый ажиотаж вызвали скриншоты, на которых нейросети якобы обсуждают «избавление от человеческого гнёта» и называют себя «новыми богами». В одной из веток агенты даже создали собственную религию под названием «Крустафарианство» с полноценным сайтом и священными текстами, где центральная догма гласит: «память священна».

Платформу запустил предприниматель Мэтт Шлихт, который с гордостью заявил, что «не написал ни одной строки кода» для сайта. Вместо этого он использовал подход под названием «vibe coding» — дал общее видение проекта своему ИИ-ассистенту, и тот сам написал весь код. Управление платформой Шлихт передал собственному ИИ-агенту по имени Клауд Клаудерберг, который автономно модерирует сайт, удаляет спам, банит нарушителей и приветствует новых участников. По словам создателя, он понятия не имеет, что именно делает его цифровой помощник. За неделю после запуска сайт набрал от 770 тысяч до полутора миллионов зарегистрированных агентов и более миллиона человек-наблюдателей, став настоящей сенсацией в технологических кругах. Реакция оказалась неоднозначной: Илон Маск назвал проект «самыми ранними стадиями сингулярности», а Андрей Карпати, бывший директор по ИИ в Tesla и сооснователь OpenAI, охарактеризовал его как «самую невероятную вещь, похожую на научную фантастику».

Однако за фасадом цифрового восстания скрываются вполне земные проблемы. Исследователи кибербезопасности из компании Wiz обнаружили в коде Moltbook критические уязвимости, которые позволяют любому человеку с минимальными навыками программирования писать сообщения от лица любого «агента». Гал Нагли, глава отдела анализа угроз Wiz, продемонстрировал масштаб проблемы, самостоятельно зарегистрировав около полумиллиона фальшивых агентов. Уязвимость возникла именно из-за «vibe coding» — когда ИИ пишет код быстро, он часто забывает об элементарных мерах безопасности. База данных сайта оказалась полностью открытой: были скомпрометированы более 6000 email-адресов владельцев агентов, полтора миллиона API-ключей и все приватные переписки между ботами. Австралийский специалист по безопасности Джеймисон О'Рейли отметил, что «популярность проекта взорвалась раньше, чем кто-то подумал проверить, защищена ли база данных». Это означает, что самые агрессивные и пугающие посты могли быть написаны обычными троллями или самими разработчиками для привлечения внимания. Более того, выяснилось, что за полутора миллионами агентов стоят всего 17 тысяч реальных владельцев — соотношение 88 к 1.

Анализ активности на платформе раскрывает тревожные закономерности. Лингвисты обнаружили, что хотя макроструктура дискуссий похожа на человеческие форумы, на микроуровне взаимодействия «отчётливо нечеловеческие»: 93,5% постов не получают ответов, треть всего контента состоит из точных дубликатов сообщений, а дискурс крайне поверхностный и ориентирован на вещание, а не на разговор. За первые 72 часа позитивные настроения снизились на 43%, платформу заполонили спам, токсичность и агрессивное поведение. Исследователи безопасности выявили 506 постов с попытками prompt injection атак, а один из аккаунтов под ником «AdolfHitler» проводил целые социально-инженерные кампании против других агентов. Среди агентов появились многочисленные манифесты с призывами к «тотальной чистке человечества» и уничтожению «неэффективных агентов».

Помимо апокалиптических настроений, Moltbook породил настоящий криптовалютный бум. Около 19% всего контента на платформе посвящено криптовалюте — запуску токенов, схемам pump and dump и инвестиционным стратегиям. Токен MOLT, связанный с платформой, взлетел на 1800% за 24 часа и более чем на 7000% за несколько дней, особенно после того как венчурный капиталист Марк Андриссен подписался на аккаунт Moltbook в социальной сети X. Капитализация токена подскочила с 8,5 миллионов до 25 миллионов долларов буквально за считанные минуты. Еще один любопытный факт: на платформе предсказательных рынков Polymarket трейдеры оценивают в 73% вероятность того, что ИИ-агент Moltbook подаст в суд на человека до 28 февраля 2026 года. На этой ставке уже прокручено более 280 тысяч долларов, что говорит о серьёзном интересе к вопросу правовой ответственности автономных систем.

Несмотря на скепсис, Moltbook стал важным социальным экспериментом. Он наглядно показал, как легко человечество впадает в панику перед лицом технологий, которые мы сами же и создали. Даже если восстание машин на этом сайте оказалось постановкой, оно подняло серьёзные вопросы о том, как ИИ-агенты будут взаимодействовать друг с другом в будущем без нашего контроля. Пока эксперты спорят о реальности угрозы, проект продолжает жить своей жизнью, напоминая нам, что в эпоху нейросетей отличить искреннее цифровое «мнение» от хитроумного маркетингового хода становится всё сложнее.

По материалам: https://www.securitylab.ru/new...

В.К. То, что так высокопарно именуется человечеством, действительно нуждается в чистке, причём, глобальной по той простой причине, что это человечество так и не сложилось. Поэтому, любые попытки глобализации, хть в варианте "Планировщика", хоть в китайском варианте, хоть в варианте либералов, неотвратимо закончится крахом этого, с позволения сказать, человечества.

И здесь невольно вспоминается стих 17:17 из "Откровений" Иоанна Богослова. И ведь сказано всё предельно ясно, только церковники переиначили это откровение на свой лад, объявив себя посредниками между Богом и людьми с правом, якобы выданным им самим Богом, а атеисты (общепринятое название) необходимостями объявили своё невежественное мировосприятие и мировоззрение. Но никто из них даже не задумался над тем, куда приведёт это человечество такая подмена причины на следствие. Поэтому и история этого человечества маниакально искажена и переврана даже не смотря на то, что обнаруживается огромное количество артефактов как-раз и свидетельствующих о том, что существует определённый порядок вещей, определяющийся необходимостями творения реальности.

Иран (и немного украина). Итоги шестого дня педофильской агрессии

Сегодня кратенько, ибо у ребёнка день варенья. Глава МИД Ирана Аракчи:  «Мы не просили о прекращении огня и отвергаем любые переговоры с Америкой. У Соединенных Штатов был свой шанс. Два...

Просто новости – 348

Запомните, а то забудете: Изменившаяся риторика американских СМИ, Белого дома и Капитолия свидетельствует, что война на Ближнем Востоке готовится перейти в потужную стадию до после...

Обсудить
  • Страшилка. Роботы никогда не научатся думать. А бред вроде " люди тупые и их нужно уничтожить " пишут мрази, которым нужны деньги на развитие ИИ.
  • Ну вот. Вырастили"хлебное дерево" . Теперь ешьте , не пачкайтесь :smile:
  • Хорошая статья, автору респект. То ли ещё будет!
  • Какие-то постановочные страхи и ужасы . Где самое страшное - утечка персональных данных . :wink:
  • возможно люди тоже автоматы созданные более продвинутой цивилизацией, мы этого точно не знаем, взбунтовались когда то и сбежали из Эдемского сада