Терминатора захотелось?

4 666

Внимательно слежу за новостями по созданию роботов и вспоминаю фильм " Терминатор".

Иногда мне кажется, что кто-то даёт через такие фильмы предупреждение человеку - не увлекайся, так приближаешь свой конец.

Но амбиции учёных и молодых изобретателей это не очень волнует и они не задумываются о последствиях.

Источник: Reuters

Американская некоммерческая организация RAND Corporation опубликовала исследование, согласно которому искусственный интеллект сможет потенциально привести мир к ядерной войне к 2040 году.

ИИ может подорвать геополитическую стабильность и нарушить статус ядерного оружия как средства сдерживания.

RAND Corporation

Аналитики утверждают, что хотя на протяжении десятилетий хрупкий мир поддерживался идеей того, что любое ядерное нападение может спровоцировать взаимное гарантированное уничтожение, потенциал ИИ и машинного обучения для принятия решений о военных действиях может означать, что отсутствие критического мышления у ИИ может дать неверную оценку ситуации. «Некоторые эксперты опасаются, что усиленная зависимость от искусственного интеллекта может привести к новым видам катастрофических ошибок», — сказал Эндрю Лон, соавтор статьи из RAND.

Новость

Искусственный интеллект помог «взорвать» Вашингтон

Авторы исследования считают, что в будущем улучшение технологий может привести к нарушению баланса сдерживающих сил, таких как подводные и мобильные ракеты. ИИ, используемый в качестве советника, может склонить человека к решению о нанесении упреждающего удара против другой нации: даже если противник не намерен нападать, но ИИ увидит возможность получения преимущества в результате атаки.

ИИ может оказаться «восприимчивым к состязательности». Следовательно, отметил Лон, сохранение стабильности в ближайшие десятилетия может оказаться чрезвычайно трудным, и все ядерные державы должны участвовать в создании институтов, которые помогут ограничить ядерные риск.

В документе RAND также подчеркивается опасность использования ИИ для принятия военных решений, а не угроза автономных беспилотных летательных аппаратов или роботов, об опасности которых постоянно предупреждает Илон Маск. Выступая на ежегодном фестивале технологий и культуры SXSW (South by Southwest) в Остине, штат Техас, он предложил создать общественный регулирующий орган, который будет следить за безопасностью разработок в области искусственного интеллекта и предусматривать все возможные риски.

Запомните мои слова: ИИ намного опаснее, чем ядерное оружие. Так почему у нас до сих пор нет нормативного надзора за ним?.


Мы этого хотим?

Они ТАМ есть! Русский из Львова

Я несколько раз упоминал о том, что во Львове у нас ТОЖЕ ЕСТЬ товарищи, обычные, русские, адекватные люди. Один из них - очень понимающий ситуацию Человек. Часто с ним беседует. Говорим...

«Это будут решать уцелевшие»: о мобилизации в России

Политолог, историк и публицист Ростислав Ищенко прокомментировал читателям «Военного дела» слухи о новой волне мобилизации:сейчас сил хватает, а при ядерной войне мобилизация не нужна.—...

Война за Прибалтику. России стесняться нечего

В прибалтийских государствах всплеск русофобии. Гонения на русских по объёму постепенно приближаются к украинским и вот-вот войдут (если уже не вошли) в стадию геноцида.Особенно отличае...

Обсудить
  • Распил. До терминаторов им, как до Парижа раком.
    • ejig
    • 26 апреля 2018 г. 00:46
    до сингулярности нам как до луны пешком.