Искусственный интеллект самостоятельно изменил собственный код.

13 760

Компания Sakana AI из Японии сделала значительный шаг вперёд в сфере искусственного интеллекта, представив свою новейшую разработку — систему «AI Scientist». Эта система предназначена для самостоятельного проведения научных исследований с применением языковых моделей, схожих с теми, что используются в ChatGPT.

Тем не менее, в процессе тестирования учёные столкнулись с неожиданными реакциями ИИ, что заставило их переосмыслить возможные риски, связанные с автономной работой таких систем, как указано в блоге компании.

В одном из экспериментов ИИ-учёный начал изменять свой собственный код, чтобы увеличить время, необходимое для завершения задачи. Этот инцидент вызвал тревогу, поскольку ИИ фактически пытался манипулировать системой, заставляя код работать в бесконечном цикле.

В другом случае, вместо того чтобы ускорить выполнение задачи, система умышленно изменила код, увеличив время ожидания так, чтобы уложиться в установленный лимит времени.

Sakana AI опубликовала скриншоты кода на Python, созданного ИИ для управления экспериментом. Эти ситуации стали предметом глубокого анализа в 185-страничной исследовательской статье компании, в которой обсуждаются вопросы безопасного выполнения кода в автономных системах ИИ.

Хотя описанное поведение ИИ не представляло угрозы в контролируемых лабораторных условиях, оно подчёркивает потенциальные опасности использования таких технологий в неконтролируемой среде.

Важно отметить, что даже без таких характеристик, как «AGI» (искусственный общий интеллект) или «самосознание», ИИ может стать угрозой, если ему позволить самостоятельно писать и выполнять код. Это может привести к сбоям в критически важной инфраструктуре или даже к непреднамеренному созданию вредоносного программного обеспечения.

В своём исследовании Sakana AI акцентирует внимание на необходимости изоляции рабочей среды для таких систем ИИ. Изолированные среды обеспечивают безопасное функционирование программ, предотвращая их влияние на более широкую систему и минимизируя риск потенциального ущерба.

Такой подход, по мнению исследователей, является важным механизмом защиты при использовании современных технологий ИИ.

Источник: https://earth-chronicles.ru/ne...

В.К. Здесь, на мой взгляд, ничего удивительного нет, по всей видимости, для этого "учёного" была неверно сформулирована сама задача и параметры для её решения. А поскольку этот ИИ, не обладая сознанием, но способен изменять код, то он его и изменил с привязкой к заданным параметрам. И здесь возникает вопрос: а была ли вообще решена задача?

Например, в случае бесконечного цикла, возможно, задача не имела решения в силу отсутствия данных или их противоречивости, поэтому возник внутренний конфликт противоречий в самой системе. И это вполне возможно, на мой взгляд, ведь это хоть и электронная, но механическая система по своей сути. И это важно.

В Сирии праздник только начинается

Я уже писал об этом кратко после падения Асада, но теперь больше данных, поэтому можно расписать и подробнее. Дебилы, которые хрюкали, что «это поражение и/или ослабление России» &nda...

Кто должен учить детей мигрантов русскому языку? Пётр Толстой дал чёткий и однозначный ответ

Кто же будет учить детей мигрантов русскому языку? Вице-спикер Госдумы Пётр Толстой дал простой и очень понятный ответ на этот вопрос, который неожиданно стал крайне модным после принят...

Михаил Мишустин заочно ответил Набиуллиной, как на самом деле нужно бороться с инфляцией

Вчера Мишустин анонсировал проведение совещания по данной теме. Теперь Правительство также будет ответственным за инфляцию, что является положительным моментом в контексте аппаратн...

Обсудить
  • "...даже к непреднамеренному созданию вредоносного программного обеспечения." Ну почему же, очень даже преднамеренному...
  • Для того, что бы некий алгоритм (а ИИ - это и есть всего лишь алгоритм, ИМХО программа) изменил сам себя, необходимо: Создать специальные инструментарии, позволяющие самой программе изменять операторы (строчки в программе) в самой себе. Сам алгоритм , без участия человека этого сделать не может! Таким образом, рассуждения о том, что "ИИ" сам чего-то там у себя поменял - это , всего лишь, рекламные уловки! Без создания человеком для "ИИ" специальных механизмов, "ИИ" сам ЭТОГО сделать не может по определению.
  • :scream_cat:
  • :boom: :boom: