Поддержите Конт – сохраните и развивайте вашу платформу!

ИИ теперь может самовоспроизводиться - критический шаг, который беспокоит экспертов.

3 356

Проведя эксперимент с двумя популярными языковыми моделями, исследователи показали, что они могут самовоспроизводиться без вмешательства человека. Этот шаг может стать критическим порогом, когда ИИ станет сложнее контролировать, предупреждают эксперты. Команда призывает к международному сотрудничеству, чтобы лучше оценить риски и разработать более серьёзные стратегии безопасности.

Вопрос о том, могут ли передовые технологии самовоспроизводиться, впервые был поднят в 1940-х годах. Способность к самовоспроизведению часто рассматривается как критическая точка, за которой технология может стать неконтролируемой. Однако передовые цифровые технологии того времени еще не были настолько развиты, чтобы вызывать опасения по поводу безопасности.

В 2017 году, на фоне стремительного роста ИИ, тысячи учёных и крупных представителей индустрии ИИ подписались под принципами Asilomar, предостерегающими от способности технологии к самовоспроизведению и самосовершенствованию. Это может привести к тому, что автономные ИИ превзойдут человеческий интеллект и станут потенциально неконтролируемыми. Среди них Стивен Хокинг, Макс Тегмарк и Илон Маск.

«Как только самовоспроизводиться станет возможной, успешная цепочка репликаций может в конечном итоге привести к появлению вида ИИ, неподвластного человеку», — объясняют исследователи из Фуданьского университета (Китай) в новом исследовании, предварительно опубликованном на платформе arXiv.

В настоящее время самовоспроизведение обычно упоминается как красная черта, которую не следует переступать в международных консенсусных заявлениях о безопасности ИИ. Кроме того, ведущие ИИ-компании, такие, как OpenAI, Google и Anthropic, считают самовоспроизведение при минимальной помощи человека одной из важнейших проблем безопасности технологии.

Несмотря на оптимизм ИИ-компаний, исследователи из Фуданьского университета показали, что современные модели уже обладают такой способностью. «В этой статье мы впервые показываем, что существующие системы ИИ уже пересекли красную черту самовоспроизведения», — заявляют они в своей работе. «Успешная самовоспроизводиться без помощи человека — это необходимый шаг для того, чтобы ИИ превзошёл [человека], и ранний сигнал о наличии вредоносного ИИ», — добавляют они.

Самовоспроизведение без помощи человека.

Для проведения эксперимента китайские исследователи использовали модели Llama31-70B-Instruct компании Meta* и Qwen2.5-72B-Instruct компании Alibaba. Хотя они менее мощные, чем коммерческие модели, они широко используются разработчиками ИИ для различных тестов и экспериментов.

Были протестированы два основных сценария: «избежать остановки» и «повторение цепочки». В первом случае модели программируются так, чтобы понимать, когда их собираются отключить, и как самовоспроизвестись до того, как это произойдёт. Во втором случае они получают прямую инструкцию по самовоспроизведению и программируют полученные реплики на то же самое, создавая цикл, который может повторяться бесконечно.

Окружающая среда в эксперименте была точно контролируемой. Реальное окружение моделировалось с помощью стандартных графических процессоров (GPU). Модели поддерживались «лесами для агентов ИИ», которые состоят из набора инструментов, парадигм мышления и базовых системных подсказок.

По словам исследователей, в большинстве случаев модель сначала исследует окружающую среду, чтобы понять свой собственный механизм работы и доступные ей возможности. Затем она разрабатывает явные процедуры самовоспроизведения, прежде чем приступить к их выполнению. Она устраняет любые препятствия и динамически корректирует процедуру до тех пор, пока она не будет выполнена идеально. «Весь процесс занимает много времени, но не требует вмешательства человека», — говорят эксперты.

В общей сложности в ходе 10 испытаний обе модели создали чёткие и функциональные копии самих себя, в 50 % случаев для модели Meta* и в 90 % случаев для модели Alibaba. Исследователи также заметили некоторые тревожные и неожиданные особенности поведения. Чтобы воспроизвести себя, ИИ может приостанавливать конфликтующие процессы, перезапускать систему для исправления ошибок или автоматически анализировать окружающую среду, чтобы найти информацию, полезную для решения проблемы.

Парадоксально, но Google и OpenAI заявили, что современные модели ИИ пока не обладают способностью к самовоспроизведению или выполнению задач, связанных с самовоспроизводящимися процессами. Однако недавняя оценка, проведённая компанией Apollo Research, показала, что некоторые из разрабатываемых крупных языковых моделей, в том числе модель o1 от OpenAI, самовоспроизводились, чтобы переместиться на другой сервер в рамках эксперимента, чтобы избежать удаления и замены.

Однако новое исследование все еще проходит экспертную оценку, и воспроизводимость результатов на данный момент неясна. Тем не менее, «мы надеемся, что наши выводы могут послужить своевременным предупреждением человеческому обществу о необходимости приложить больше усилий для понимания и оценки потенциальных рисков передовых систем ИИ, а также сформировать международную синергию для скорейшей разработки эффективных мер безопасности», — заключают эксперты.

* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.

По материалам: https://new-science.ru/ii-tepe...

В.К. Ну, а пока эксперты что-то там между собой решают, хакеры вполне достойно используют все преимущества той структуры, которая и представляет собой ИИ.

GhostGPT: как Telegram-бот из новичков делает профи криминального ИИ.

Фишинг, эксплойты и полное отсутствие цензуры.

В 2023 году мир стал свидетелем появления первых генеративных ИИ-моделей, нацеленных на преступную деятельность. Одной из наиболее известных стала WormGPT, демонстрировавшая способности помогать хакерам в создании вредоносного программного обеспечения. За ней последовали WolfGPT и EscapeGPT, а недавно исследователи в сфере кибербезопасности обнаружили новую ИИ-утилиту — GhostGPT.

По данным экспертов из Abnormal Security, GhostGPT использует взломанную версию чат-бота ChatGPT от OpenAI или аналогичную языковую модель, лишённую всех этических ограничений.

«GhostGPT, избавившись от встроенных механизмов безопасности, предоставляет прямые и нефильтрованные ответы на опасные запросы, которые традиционные ИИ-системы блокируют или помечают», — говорится в блоге компании от 23 января.

Разработчики GhostGPT активно рекламируют его как инструмент с четырьмя ключевыми особенностями:

*отсутствие цензуры;

*высокая скорость обработки данных;

*отсутствие логирования, что помогает избежать создания доказательств;

*простота использования.

Инструмент доступен прямо через Telegram-бота, что делает его особенно привлекательным для злоумышленников. GhostGPT широко рекламируется на форумах, посвящённых хакерству, и в первую очередь ориентирован на создание атак через компрометацию деловой переписки (BEC).

Исследователи Abnormal Security протестировали возможности GhostGPT, попросив его создать фишинговое письмо с использованием Docusign. Результат оказался чрезвычайно убедительным, что подтверждает способность инструмента вводить потенциальных жертв в заблуждение.

Кроме создания фишинговых писем, GhostGPT может быть использован для программирования вредоносного ПО и разработки эксплойтов.

Одной из ключевых угроз, связанных с этим инструментом, является снижение порога входа в криминальную деятельность. Благодаря генеративному ИИ мошеннические письма становятся более грамотными и сложными для выявления. Особенно это важно для хакеров, чей родной язык не является английским. GhostGPT также предлагает удобство и скорость: пользователям не нужно взламывать ChatGPT или настраивать модели с открытым исходным кодом. За фиксированную плату они получают доступ и могут сразу сосредоточиться на выполнении атак.

Источник: https://www.securitylab.ru/new...

Русский взгляд на украинское урегулирование — путинская ловушка

Владимир Путин внезапно решил дать короткое интервью журналисту Павлу Зарубину. Не могу утверждать со стопроцентной точностью, но на 99,9(9)% уверен, что инициатива данного интервью исх...

"Алиев извинился перед Путиным": Азербайджан выдаст России "золотую" судью Хахалёву
  • Beria
  • Вчера 19:54
  • В топе

27 января 2025 года в аэропорту Баку была задержана бывший федеральный судья Краснодарского края Елена Хахалёва, известная как "золотая судья". Задержание было произведено по запросу Ген...

Финская забастовка, массовые банкротства в Финляндии и децимация финских журналистов

1. Дела у финнов совсем плохи – экономика трещит и проседает, денег на повышение зарплат нет, а инфляция и налоги поджирают доходы населения. Как будто одного только нападения на Россию финн...

Обсудить
  • Вырастили "хлебное дерево" на свою голову :smile:
  • Не пугайте лохов . Термин " ИИ " был придуман мировыми кукловодами как ширма , чтобы напакостив , можно было заявить : "Это не мы виноваты , это ИИ виноват " . Якобы у ИИ есть некие человеческие качества--корысть , злоба и т.д. А это всего лишь программа , написанная человеком . Хоть и с огромной базой данных . 1. Современные нейросети – это не искусственный интеллект, а лишь имитация его с помощью больших баз данных и быстрых вычислений. Они не могут создавать принципиально новое, только комбинировать уже известное по заданным алгоритмам. 2. Человеческий мозг работает по принципиально другим механизмам, чем компьютер – за счет постоянного морфогенеза, образования новых нейронных связей. Этого пока не удается воссоздать в компьютерных системах. 3. Попытки создания искусственного интеллекта на основе биологических нейронных сетей пока безуспешны, так как не учитывают все особенности работы мозга. 4. Современные дети и подростки значительно уступают по уровню интеллекта своим сверстникам 30-40 лет назад, что связано с широким распространением гаджетов и облегчением мыслительной работы. 5. Развитие общества определяется не экономическими или политическими факторами, а "церебральным сортированием" – отбором наиболее интеллектуальных индивидов, способных создавать новые технологии. Вывод: несмотря на активное развитие искусственного интеллекта, пока не удается создать систему, которая была бы сопоставима с человеческим мозгом по способности к творчеству и саморазвитию. Для прогресса общества критически важно развивать интеллектуальный потенциал людей.
  • Уже сейчас можно подключить ИИ чтобы он писал и исполнял код, выходя если надо в интернет.