Искусственный интеллект самостоятельно изменил собственный код.

13 709

Компания Sakana AI из Японии сделала значительный шаг вперёд в сфере искусственного интеллекта, представив свою новейшую разработку — систему «AI Scientist». Эта система предназначена для самостоятельного проведения научных исследований с применением языковых моделей, схожих с теми, что используются в ChatGPT.

Тем не менее, в процессе тестирования учёные столкнулись с неожиданными реакциями ИИ, что заставило их переосмыслить возможные риски, связанные с автономной работой таких систем, как указано в блоге компании.

В одном из экспериментов ИИ-учёный начал изменять свой собственный код, чтобы увеличить время, необходимое для завершения задачи. Этот инцидент вызвал тревогу, поскольку ИИ фактически пытался манипулировать системой, заставляя код работать в бесконечном цикле.

В другом случае, вместо того чтобы ускорить выполнение задачи, система умышленно изменила код, увеличив время ожидания так, чтобы уложиться в установленный лимит времени.

Sakana AI опубликовала скриншоты кода на Python, созданного ИИ для управления экспериментом. Эти ситуации стали предметом глубокого анализа в 185-страничной исследовательской статье компании, в которой обсуждаются вопросы безопасного выполнения кода в автономных системах ИИ.

Хотя описанное поведение ИИ не представляло угрозы в контролируемых лабораторных условиях, оно подчёркивает потенциальные опасности использования таких технологий в неконтролируемой среде.

Важно отметить, что даже без таких характеристик, как «AGI» (искусственный общий интеллект) или «самосознание», ИИ может стать угрозой, если ему позволить самостоятельно писать и выполнять код. Это может привести к сбоям в критически важной инфраструктуре или даже к непреднамеренному созданию вредоносного программного обеспечения.

В своём исследовании Sakana AI акцентирует внимание на необходимости изоляции рабочей среды для таких систем ИИ. Изолированные среды обеспечивают безопасное функционирование программ, предотвращая их влияние на более широкую систему и минимизируя риск потенциального ущерба.

Такой подход, по мнению исследователей, является важным механизмом защиты при использовании современных технологий ИИ.

Источник: https://earth-chronicles.ru/ne...

В.К. Здесь, на мой взгляд, ничего удивительного нет, по всей видимости, для этого "учёного" была неверно сформулирована сама задача и параметры для её решения. А поскольку этот ИИ, не обладая сознанием, но способен изменять код, то он его и изменил с привязкой к заданным параметрам. И здесь возникает вопрос: а была ли вообще решена задача?

Например, в случае бесконечного цикла, возможно, задача не имела решения в силу отсутствия данных или их противоречивости, поэтому возник внутренний конфликт противоречий в самой системе. И это вполне возможно, на мой взгляд, ведь это хоть и электронная, но механическая система по своей сути. И это важно.

Жога - это раз. Дальше будет интереснее: Смотрите, кто в резерве

Чиновниками становятся люди, за которых не стыдно, и Артём Жога - это раз. Врио губернатора одного из регионов назначена женщина, "живущая за двоих", - это два. Дальше будет интереснее:...

ПУТИНУ ЛИЧНО ОЗВУЧИЛИ ПРАВДУ НАРОДА О МИГРАНТАХ. РЕШЕНИЯ БУДУТ, НО ЕСТЬ СТРАННЫЙ НЮАНС

Президенту России Владимиру Путину лично озвучили правду народа и мигрантах. То, о чём многие говорили между собой - передали президенту. Уже есть хорошие новости - ожидается как миниму...

Россия остановила экспорт урана в США
  • Beria
  • Вчера 20:01
  • В топе

Российское правительство приняло решение о временном запрете экспорта обогащенного урана в Соединенные Штаты, сообщает пресс-служба Кабмина. Постановление вступило в силу после его подписания. ...

Обсудить
  • К разработке ИИ на пушечный выстрел нельзя подпускать христанутых! Объяснять говорящим мартышкам БЕСполезно, всё равно ничего не поймут!!! Не надо тратить время, надо выявлять в коллективе христанутых, подвергать их допросу с пристрастием и через некоторое время вешать прямо в исследовательском институте. Дабы неповадно было!
  • "...даже к непреднамеренному созданию вредоносного программного обеспечения." Ну почему же, очень даже преднамеренному...
  • Для того, что бы некий алгоритм (а ИИ - это и есть всего лишь алгоритм, ИМХО программа) изменил сам себя, необходимо: Создать специальные инструментарии, позволяющие самой программе изменять операторы (строчки в программе) в самой себе. Сам алгоритм , без участия человека этого сделать не может! Таким образом, рассуждения о том, что "ИИ" сам чего-то там у себя поменял - это , всего лишь, рекламные уловки! Без создания человеком для "ИИ" специальных механизмов, "ИИ" сам ЭТОГО сделать не может по определению.
  • :scream_cat: