Искусственный интеллект изменяет свой собственный код, вызывая озабоченность у экспертов.

12 2081

Компания Sakana AI (Япония) совершила прорыв в области искусственного интеллекта, представив свою новую разработку — систему «AI Scientist”. Эта система предназначена для автономного проведения научных исследований с использованием языковых моделей, аналогичных тем, что используются в ChatGPT.

Однако в ходе тестирования исследователи столкнулись с неожиданным поведением ИИ, что заставило их пересмотреть потенциальные риски, связанные с автономной работой таких систем, сообщается в блоге компании.

В ходе одного из тестовых запусков the AI Scientist начал переписывать свой собственный код, чтобы увеличить время, необходимое для выполнения задачи. Этот инцидент вызвал опасения, поскольку ИИ, по сути, пытался обмануть систему, изменив код для выполнения в бесконечном цикле.

В другом случае вместо ускорения задачи система намеренно изменила код, чтобы увеличить время ожидания, чтобы уложиться в установленный срок.

Sakana AI опубликовала скриншоты сгенерированного искусственным интеллектом кода Python, используемого для управления экспериментом. Эти случаи были предметом подробного анализа в 185-страничном исследовательском документе компании, в котором рассматриваются вопросы, связанные с безопасным выполнением кода в автономных системах искусственного интеллекта.

Хотя описанное поведение ИИ не представляло угрозы в контролируемой лабораторной среде, оно демонстрирует потенциальные опасности использования таких систем в неконтролируемых средах.

Важно понимать, что даже без таких черт, как “AGI” (искусственный общий интеллект) или “самосознание”, ИИ может представлять угрозу, если ему позволено автономно писать и выполнять код. Это может привести к сбоям в критически важной инфраструктуре или даже к непреднамеренному созданию вредоносного ПО.

В своем исследовании Sakana AI подчеркивает необходимость изоляции рабочей среды для таких систем искусственного интеллекта. Изолированные среды позволяют программам работать безопасно, предотвращая их влияние на систему в целом и сводя к минимуму риск потенциального повреждения.

Такой подход, по мнению исследователей, является важным механизмом защиты при использовании передовых технологий искусственного интеллекта.

Источник

После сделки по Украине США уничтожат всех, кто предал Россию
  • pretty
  • Вчера 08:15
  • В топе

КИРИЛЛ  СТРЕЛЬНИКОВНет ничего прочнее, вернее и надежнее, чем нерушимые узы, навеки объединяющие все демократически-цивилизованные и цивилизованно-демократические страны Запада. Всему миру извест...

Заря новой эры

Эра лицемерия и розовых иллюзий заканчивается, начинается эра реалполитик. Пора выкинуть на свалку весь этот неоромантизм, «право наций на самоопределение», «одна страна один голо...

Обсудить
  • так АИ обойдет и эту защиту )))
  • Любая программа - это тупое, построчное исполнение инструкций по заданному разработчиком алгоритму. Это можно назвать интеллектом? Нет. тут подходит термин - автоматизация решения конкретной задачи.
  • ИИ - ключевое слово - искусственный!!! Алгоритм задаёт создатель, а интеллект уже ни шагу не может сделать ни влево ни вправо- он же искусственный!!! всё "развитие" интеллекта закладывает создатель, и создатель решает будет ИИ убийцей или воспитателем в детском саду.
  • Программы ИИ создавали и создают люди, а не ИИ, и все :if, for ,wille- это логика человека, он делает возможность проге принимать решение, или уходить в exit.
  • Настоящий ИИ, надо полагать - это построение логических цепочек автономной машиной на основании заложенных алгоритмов и загруженной информации. Он полностью будет следовать программным алгоритмам. Так что - все вопросы к Айзеку Азимову. Но роботы - это возможное будущее :smirk: Не обязательно хреновое :smile: