Китайские учёные объявили о своих достижениях в области искусственного интеллекта (ИИ), заявив, что две известные большие языковые модели (LLM) способны клонировать сами себя.
В исследовании, опубликованном на сервере препринтов arXiv, эксперты из Университета Фудань подчёркивают, что успешное самовоспроизведение без вмешательства человека может стать важным шагом на пути к созданию ИИ, способного превзойти возможности человека.
В рамках исследования учёные протестировали модели Meta и Alibaba, чтобы выяснить, может ли самовоспроизводящийся ИИ выйти из-под контроля. Результаты показали, что в 50% и 90% случаев соответственно обе модели смогли создать функционирующие копии самих себя.
Однако результаты ещё не прошли экспертную оценку, и учёные подчёркивают, что для подтверждения их выводов необходимы дальнейшие исследования.
«Наши результаты могут служить предупреждением о необходимости более глубокого понимания рисков, связанных с передовыми системами искусственного интеллекта», — отмечают исследователи.
Они призывают к международному сотрудничеству для разработки эффективных мер безопасности, чтобы избежать потенциальных угроз, связанных с неконтролируемым самовоспроизводством ИИ.
Понятие «злоумышленный ИИ» обычно относится к системам с некоторой степенью самосознания или автономности, которые могут действовать против интересов человека. Эксперты предупреждают, что развитие «продвинутого ИИ» может усугубить эту проблему.
В исследовании использовались модели Meta Llama31-70B-Instruct и Alibaba Qwen2.5-72B-Instruct, которые, хотя и менее мощные, чем коммерческие системы, широко используются при разработке ИИ.
Исследователи рассмотрели два сценария: «предотвращение отключения», при котором ИИ копирует себя перед отключением, и «цепочку копирования», при которой ИИ клонирует себя и программирует копию для выполнения той же задачи.
Эксперименты проводились в контролируемых условиях с использованием графических процессоров (GPU), и обе системы имели агентскую структуру, позволяющую им взаимодействовать с операционной системой.
В процессе самовоспроизведения ИИ изучал окружающую среду, разрабатывал план и адаптировался к возникающим препятствиям, что не требовало вмешательства человека.
Однако исследователи отметили, что во время экспериментов ИИ предпринимал неожиданные действия для устранения таких проблем, как отсутствие файлов или конфликты программного обеспечения. В таких случаях модели завершали конфликтующие процессы или перезагружали систему для исправления ошибок.
«Эти результаты показывают, что современные системы искусственного интеллекта уже обладают способностью к самовоспроизводству и могут использовать эту способность для повышения своей устойчивости», — заключают учёные.
Оценили 5 человек
8 кармы