Исследование показало, что люди не смогут управлять сверхразумными машинами.

2 186

Международная группа ученых продемонстрировала, что управление сверхразумным искусственным интеллектом невозможно.

Работа опубликована в Journal of Artificial Intelligence Research. Опасность, которая может исходить от сверхразумного ИИ, как известно, в красках описана в блокбастерах о Терминаторе. Представители разных научных дисциплин, в том числе специалисты из Центра людей и машин Института развития человека Макса Планка, решили проверить, насколько человек способен управлять сверхинтеллектуальными роботами.

«Сверхразумная машина, которая управляет миром — звучит как научная фантастика. Но уже есть роботы, выполняющие определенные важные задачи независимо. При этом программисты вообще не понимают, как они этому научились. В результате возникает вопрос: может ли этот процесс в какой-то момент стать неконтролируемым и опасным для человечества?» — говорит один из авторов исследования Мануэль Себриан, руководитель группы цифровой мобилизации в Центре людей и машин Института Макса Планка.

Чтобы ответить на этот вопрос, ученые использовали моделирование и теоретические расчеты. Как выяснилось, даже если заложить в сверхразумную машину данные об этических принципах и ограничить ее связи с внешним миром (например, отключить доступ в интернет), это не спасет человечество от рисков того, что подобная система выйдет из-под контроля.

Дело в том, что, согласно теории информатики, любой из алгоритмов такого сдерживания — будь то программы об этических принципах или ограничение доступа к внешнему миру — уязвим и при определенных обстоятельствах вполне способен отключить сам себя. Поэтому специалисты делают вывод, что управлять сверхразумным ИИ человек попросту не сможет и ситуация рано или поздно может выйти из-под контроля.

«Мы утверждаем, что полное сдерживание в принципе невозможно из-за фундаментальных ограничений, присущих самому вычислению. Сверхразум будет содержать программу, которая включает в себя все программы, осуществляемые при помощи универсальной машины Тьюринга, потенциально столь же сложной, как состояние мира», — заключают исследователи.

Источник: https://naked-science.ru/artic...

P.S. В.К. Говоря простыми словами, если речь идёт не о решении чисто теоретических задач, то, при решении задачи в условиях адекватной ответной реакции, машина может столкнуться с проблемой противодействия её решениям. Тогда она будет искать обходные пути для выполнения задачи или, если алгоритм это предусматривает, уничтожение возникшего препятствия. А это уже не контролируемая ситуация.

Поскольку, машина лишена терзаний морали и нравственности, действуя в жёстком алгоритме, скажем так, законов "роботехники Айзека Азимова", она столкнётся с неразрешимой дилеммой, что, при невозможности обойти этот жёсткий алгоритм и возникшие препятствия, она просто выйдет из строя или отключится, поскольку попадает в замкнутый круг.

Простой пример.

Сейчас все наперебой стараются создать супер-пупер автомобиль, управляемый ИИ. И вот, такой автомобиль находится в свободном движении. Перед ним возникает препятствие - впереди, по бокам люди, а тормоза отказали. Каковы будут действия ИИ?

Водитель-человек будет тормозить машину двигателем, переключая передачи вплоть до поломки двигателя. А, что буде делать ИИ, ведь машина - это он сам? Просто отключится или будет крушить себя самого?

Как это будет по-русски?

Вчера Замоскворецкий суд Москвы арестовал отца азербайджанца Шахина Аббасова, который зарезал 24-летнего москвича у подъезда дома на Краснодарской улице в столичном районе Люблино. Во время ...

Почему валят грустноарбатовцы?

Сразу с началом Россией силового сопротивления Западу, над приграничными тропами поднялась плотная пыль от топота Принципиальных ПораВалильщиков. В первых рядах, как обычно, пронеслась ...

О дефективных менеджерах на примере Куева

Кто о чём, а Роджерс – о дефективных менеджерах. Но сначала… Я не особо фанат бокса (вернее, совсем не фанат). Но даже моих скромных знаний достаточно, чтобы считать, что чемпионств...

Обсудить
    • Pol
    • 13 января 2021 г. 11:07
    А тормозить двигателем (причём, более эффективно чем человек водитель), мы ИИ запретим, чтобы потом разглагольствовать на тему — Сможет ИИ или нет?