На украинском фронте одними из главных убийц стали дроны. Пока ими управляет человек, и он принимает решения. В скором будущем все может измениться, пишет SZ. Роботы-воины будут действовать самостоятельно. Такие дроны уже тестируются в ходе украинского конфликта.

Автор: Матоуш Лазневский (Matouš Lázňovský)
Появление в бою оружия способного на самостоятельные решения, скорее всего, — вопрос недалекого будущего. Воли ограничить применение мало, ведь возможных плюсов слишком много. А что касается рисков, то они зависят в основном от людей.
Машины — самые эффективные убийцы. Большая часть убитых и раненых в войнах ХХ века — результат работы артиллерии. На украинском фронте по разным причинам главными убийцами стали дроны. Но за каждой смертью от дрона стоит человек, который принял такое решение. Пока сами машины решений о том, кто погибнет, не принимают.
Правда, в обозримом будущем все может измениться. В связи с российской спецоперацией на Украине о применении "роботов-убийц", то есть автономного оружия, не только говорят, но и широко экспериментируют с ним.
Робот эффективнее, чем ненадежный солдат
Чаще всего речь идет об оружии, прежде всего дронах, со способностью "машинного зрения". Как правило, оператор выбирает цель, компьютер на борту дрона ее "запоминает", и если он теряет связь с оператором, то летит к ней сам и сам ее атакует.
Система отнюдь не идеальная и на деле применяется в редких случаях. Однако системы разрабатываются, и в первую очередь Украина, а также Россия уделяют этой сфере внимание. Обе стороны разглашают минимум информации о том, что поставлена цель разработать оружие, которое сможет принимать решения лучше и эффективнее, чем нынешние ненадежные "бойцы".
А вот что на российских и украинских сайтах обсуждают намного реже, так это возможное ограничение технологии "роботов-убийц". Уж слишком высоки ставки. А ведь на протяжении многих лет казалось, что регулирование автономного оружия как минимум на бумаге действительно возможно.
Может, вы помните кампанию Stop Killer Robots. Ее представители и ряд других утверждают, что автономные убивающие системы неприемлемы с этической точки зрения, и призывают к такому же международному запрету, какой действует против химического и биологического оружия. Их позицию поддержал и Генеральный секретарь ООН Антониу Гутерриш, который публично заявил, что машины способные убивать без решения человека "политически неприемлемы и нравственно отвратительны".
Уже с 2014 года в рамках ООН проводятся обсуждения этой проблемы. Однако пока они породили только необязательные принципы. В них подчеркивается, что в решении о применении силы должен всегда участвовать человек. Однако государства пока так и не приблизились к обязательному международному договору. Хотя в конце 2023 года 152 страны проголосовали за начало переговоров о новом договоре по автономному оружию, такие важные государства, США и Россия, выступили против.
В текущем году запланированы новые переговоры, но перелома от них не ожидается. Солдаты-роботы обладают слишком уж большим потенциалом, что отлично подтверждает вооруженный конфликт на Украине.
Кто тут самостоятелен
Пока точного определения нет, и о точной формулировке по-прежнему ведутся дипломатические и экспертные споры. Паникеры могут заявить, что "автономным оружием" являются, например, и мины — устройства способные убивать без прямого участия человека. Кстати, и до конфликта на Украине армии применяли довольно продвинутое оружие способное самостоятельно находить и атаковать цель.

Часто упоминаемый пример — израильские аппараты Harpy, которые летают над определенной территорией, а когда радар обнаруживает противника, сами его атакуют. И это не единственный пример подобных "самостоятельных" вооружений.
Однако это не означает, что дискуссия об определении — лишь академическая игра. Например, Россия в рамках переговоров о регулировании оружия предложила определение, которым практически все нынешние "умные" бомбы и беспилотники были бы исключены из группы автономного оружия.
Согласно российскому предложению, автономное смертоносное оружие является "только полностью автономным беспилотным техническим средством, за исключением боеприпасов, предназначенным для боевых или вспомогательных целей и не требующим участия оператора". Поэтому Россия отказывается дискутировать о дронах как об автономном оружии, поскольку считает их "высоко автоматизированными", но все же управляемыми человеком.
Но, как правило, под автономным оружием понимается устройство, которое способно самостоятельно обнаружить цель, принять решение о ее уничтожении и атаковать без дальнейшего приказа человека.
Такого оружия на фронте, насколько нам известно, нет. Уж точно не в большом количестве (и дело тут не в желании, а в технических проблемах). Вообще же нет сомнений в том, что применение подобных технологий будет расширяться просто из-за множества преимуществ.
Когда нет связи
Конфликт на Украине также показывает, что идеальная связь и обозреваемое онлайн поле боя на фронте — это иллюзия. Радиоэлектронная борьба, то есть нарушение связи, подавление сигналов GPS и радаров, является сегодня неотъемлемой частью современной войны.
Подавление сигналов между оператором и его устройством сегодня — главный способ обороны от небольших дронов-камикадзе. Если будущие армии не хотят терять за год на фронте тысячу единиц разной техники из-за дронов, то им придется усовершенствовать свои умения в этой области.
Один из вариантов справиться с "полной блокадой сигналов" на поле боя — это как раз оружие, самостоятельно принимающее решения. У них все самое важное происходит на палубе, и связываться такому устройству ни с кем не нужно. Причем не всегда проблема в подавлении сигналов. Порой связь осложняется из-за особенностей окружающей среды, например, под поверхностью морей и океанов.

Главное преимущество — быстрота и эффективность принятия решений. Устройству не нужно долго обдумывать возможности, да и стресса от боевых действий оно не испытывает. Искусственный интеллект способен быстрее анализировать большое количество информации и реагировать намного быстрее, чем оператор-человек.Еще одно преимущество — снижение риска для собственных солдат. Пусть армии и не потребуется их меньше (автономные системы нуждаются в большой логистической и технической поддержке), но зато большинство людей уже не будут находиться на передовой.
Автономные системы также способны сдерживать противника, ведь враг будет знать, что столкнется с оружием, которое не перестанет работать даже при подавлении связи.
Машина не устает, не боится и не отчаивается
Хорошо запрограммированное автономное оружие также обещает быть весьма надежным. Машина не устает, не испытывает страха и разочарования. Если правила четко установлены, устройство не допустит трагических ошибок, которые часто случаются в стрессовой ситуации в хаотичном бою. И я уже не говорю о военных преступлениях.
Важное практическое преимущество также — "обучение" роботов, а точнее его простота. Софтвер, который способен управлять автономным боевым устройством, можно скопировать и записать на другое устройство. В отличие от солдат, не нужно никого индивидуально обучать, и с точки зрения быстроты применения это принципиальная разница.
Искусственный интеллект определенно не будет в обозримом будущем диковинкой. Его развитие — стратегический приоритет не только для армий, но и для правительств и частных компаний. Ряд технологий, разработанных для гражданского применения, можно относительно просто адаптировать под военные цели. На Украине тому есть немало примеров.
Свою роль играет и то, что "самостоятельность" в ряде случае не обязательно сопряжена с техническими сложностями. Некоторые типы современных вооружений уже справляются с определенными задачами самостоятельно (от автопилота до планирования операций в соответствии с текущими условиями). Таким образом, для превращения в "роботов-убийц" будет достаточно простой доработки софтвера.
Что может выйти?
Время "роботов с разрешением убивать" придет постепенно. Как было сказано, по сути уже сегодня они существуют. Вопрос, что будет, когда они, образно говоря, появятся на каждом шагу.
Упомянутый аппарат Harpy — пример очень специализированной технологии, у которой минимален шанс ошибиться, ведь радар неприятельской системы ПВО очень трудно перепутать с чем-то другим. И хотя ваша микроволновка работает по тому же принципу, вероятность трагической ошибки минимальна.
Больше опасений вызывает то, что подобная технология будет доведена до стадии, когда "роботов-убийц" будет настолько дешево производить, что их будут применять и против мелких целей — даже против одиночных пехотинцев. А вот людей спутать куда проще, чем радары и микроволновки.
Риск удара по своим
Опыт показывает, что ни одна система не безгрешна. Если машина "путается", это может привести к трагедии — неумышленной гибели мирных жителей или удару по своим же вооруженным силам. Человек способен (хотя бы в теории) на сочувствие или понимание, а машина нет. В конечном счете ход войны может принципиально измениться, а с ним и то, как мы воспринимаем собственную ответственность за нее.
Если какое-то автономное оружие станет причиной смерти невинных людей, то на кого будет возложена вина? На оператора, который отправил его в бой? На командира, который дал добро? На программиста, который написал код? Или на саму машину?
Проблема заключается также в том, что решения, принимаемые искусственным интеллектом, не всегда понятны человеку. В публичной дискуссии часто проводят аналогии с человеческим мышлением и биологическими процессами. Однако алгоритмы просто не мыслят, как человек. Современные системы искусственного интеллекта, прежде всего основанные на машинном обучении, зачастую называют "черным ящиком". Даже их создатели не знают, почему машина решила так, а не иначе.
К подобной ситуации не готово не только современное право. Образуется "пробел в ответственности", когда, попросту говоря, неясно, кто виноват. Агрессору скрыться за анонимной машиной куда проще, чем за "зелеными человечками".
Умный конец света
Пессимисты также опасаются, что люди могут доверить автономным системам решения о применении самого опасного оружия, в том числе, ядерного. Аргументы в пользу такого решения ясны: искусственный интеллект не знает страха, нерешительности и паники.
Однако при неправильных параметрах тут грозит потенциальная проблема. Например, преимущество в виде быстрой реакции может оказаться и минусом. Если одно автономное оружие отреагирует на движение неприятельской системы, то возможна цепная реакция, которую уже никто не сможет остановить. В том числе и потому, что в ситуации, когда противник молниеносно быстр, колебаниям нет места.
А ведь исторический опыт показывает, насколько серьезными могут быть последствия ошибок автоматических систем. Во время холодной войны две сверхдержавы располагали автоматизированными системами своевременного предупреждения о ракетном ударе. Несколько раз случалось, что эти системы поднимали ложную тревогу.
Когда офицер Петров спас мир
Самый известный пример — это инцидент 1983 года, когда советские спутники сообщили об ударе американскими ракетами. Офицер Станислав Петров тогда оценил ситуацию как техническую ошибку и не нанес ответный удар.
Если бы на его месте была машина, управляемая алгоритмом, которая автоматически реагирует на "определенные" сигналы удара, то результат был бы катастрофическим. Как отметил в этой связи один из критиков в спорах об автономном оружии, "если бы тогда решал искусственный интеллект, мы бы все уже были мертвы".
В ближайшем будущем, однако, искусственный интеллект будет на полях сражений принимать решения "только" об индивидуальных жизнях, а не о судьбе всего человечества. Насколько точными будут решения, будет в основном зависеть от конкретного кода, который его авторы вложат в устройство. Будут ли в нем "баги" (ошибки) с возможными смертельными последствиями, предсказать невозможно.
Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Оценили 15 человек
28 кармы