«Моральные принципы» беспилотных автомобилей

20 1819



Когда я на конференции ЦИПР-2017 в Иннополисе фотографировал Гошу Куценко, он в этот момент слушал докладчика на секции, посвященной роботам и беспилотным автомобилям. Там как раз обсуждалась тема морального выбора у автопилота. Прошло уже несколько лет, но по теме "моральных принципов" беспилотных автомобилей ничего не поменялось.

Простыми словами это можно озвучить так: если наезд неизбежен, то кого давить "ребенка или бабушку"? А может быть в таком случае лучше "пожертвовать" пассажиром машины?

И вот в какую сторону сейчас развивается дискуссия в этом вопросе ...

Конечно же вы все сейчас станете говорить о том, что мол надо не выбирать кого "давить", а стараться не допускать подобных ситуаций или решать их так, чтобы все остались целы и невредимы. Это все так. Но то, что человек решает на уровне подсознания, робот или автопилот должен решать по заложенной в него программе. А программу как раз таки разрабатывает заранее человек и он что то должен определить в этот момент. Нельзя же просто именно эту ситуацию вообще не предусмотреть. В противном случае в каком то сложном положении беспилотный автомобиль влетит на остановку полную людьми, вместо того, чтобы повернуть в обратную сторону и в отбойник например.





Для того, чтобы понять, как поступили бы люди в той или иной критической ситуации, сотрудники института разработали специальную игру «Moral Machine».

Тест доступен для всех желающих, в том числе и на русском языке. В игре моделируется ситуация, когда самоуправляемый автомобиль вышел из-под контроля, а искусственный интеллект должен сделать свой выбор.



Всего в тесте представлено 13 ситуаций, в каждой из которых необходимо решить кого- пешеходов или пассажиров- оставить в живых. 



Например, пользователю предлагается выбрать кто из 2 двух людей – молодой или пожилой человек – должен остаться в живых, а на кого наедет автомобиль.

На сегодняшний день Moral Machine набрала уже более 11 млн. возможных сценариев поведения.

А как бы вы прошли этот тест?



Однако, совсем недавно ученые из Университета Оснабрюка (Германия) провели другой эксперимент, участники которого должны были с помощью симулятора виртуальной реальности «водить машину» в туманный день в пригороде. Неожиданно на пути «водителей» возникало препятствие в виде человека, животного или неодушевленного предмета, и им приходилось принимать решение, кого пощадить в данной ситуации.

Результаты эксперимента показали, что поступки водителей в этом случае были обусловлены их морально-этическими принципами, пишет издание EurekAlert! Таким образом, человеческое поведение можно хорошо описать с помощью алгоритмов, которые со временем будут использованы и машинами. Для этого собственно и не требовалось никаких исследования, все и так понятно, но "британские ученые такие ученые ...".

Мне как не специалисту больше непонятен не тот аспект, кого выберет задавить водитель животное или человека, а как будет решать водитель или в будущем программа беспилотного автомобиля, когда выбор будет стоять между врезаться в стену (и возможно погибнуть) и врезаться например в автобус и возможно погубить или покалечить несколько человек.

Нет, давайте вообще по максимуму упростим ситуацию: врезаться в стену или сбить человека? Каждый человек на Земле совершит явно не одинаковое действие. Тут нет 100% верного решения. Так вот и программа беспилотного автомобиля должна понимать какие действия ей предпринять когда выбор стоит так или вот так. Конечные шансы никто не знает, но вот выбор направления действия должен быть однозначно!

В Германии пошли дальше. Недавно Федеральное министерство транспорта и цифровой инфраструктуры Германии определило 20 этических принципов для водителей автомобилей. Согласно им, к примеру, ребенок, бегущий через дорогу, признается «более вовлеченным в создание опасной ситуации», чем взрослый, стоящий на обочине. Таким образом, в данном случае водитель не должен жертвовать жизнью или здоровьем взрослого пешехода. Оригинально, не правда ли? Т.е. моральные ценности в этом случае что то лишнее и не нужное. Может быть так и должно быть? Четкий расчет и рационализм?

«Теперь, когда мы знаем, как внедрять этические принципы в машины, мы, как общество, сталкиваемся с двойной дилеммой, — объяснил профессор Питер Кениг. — Во-первых, мы должны решить, следует ли включать моральные ценности в „поведение“ машин, а во-вторых, должны ли машины действовать так же, как люди».

Реклама

Авторы исследования уверены, что автомобили-беспилотники — это только начало, поскольку все более распространенными становятся роботы в больницах и другие системы искусственного интеллекта. Ученые предупреждают, что мы стоим на пороге новой эпохи и должны установить для машин четкие правила, пока те не начали принимать решения без нас.

Конечно же не будем думать, что эта тема и такие выборы возникли только сейчас.

Я очень хорошо помню, как в детстве читал книжку Азимова "Я, Робот". Она произвела на меня огромное впечатление. Возможно основной причиной этому были сюжеты, посвященные выбору роботами между тремя законами робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Но даже имея такие четкие законы, случались ситуации, которые либо не описывались ими, либо создавали серьезное противоречие со здравым смыслом.

Чувствуется мне, что еще лет через 10 уже придется нам создавать свои законы робототехники и ставить на одну сторону весов рациональность и расчет, а на другую мораль и принципы совести.

Или вы считаете, такой проблемы не возникнет?

https://masterok.livejou...

«Это будут решать уцелевшие»: о мобилизации в России

Политолог, историк и публицист Ростислав Ищенко прокомментировал читателям «Военного дела» слухи о новой волне мобилизации:сейчас сил хватает, а при ядерной войне мобилизация не нужна.—...

Война за Прибалтику. России стесняться нечего

В прибалтийских государствах всплеск русофобии. Гонения на русских по объёму постепенно приближаются к украинским и вот-вот войдут (если уже не вошли) в стадию геноцида.Особенно отличае...

"Не будет страны под названием Украина". Вспоминая Жириновского и его прогнозы

Прогноз Жириновского на 2024 года также: Судьба иноагента Галкина и его жены Владимир Жириновский, лидер партии ЛДПР, запомнился всем как яркий эпатажный политик. Конечно, манера подачи ...

Обсудить
  • Гоша чавойта сдавать начал.
  • вообще -то этот вопрос уже был решён 8 ноября 1968 года, когда на конференции ООН по дорожному движению и с тех пор ничего не изменилось
  • >>>Таким образом, в данном случае водитель не должен жертвовать жизнью или здоровьем взрослого пешехода. И что не так? Горе-родители выпустили свое чадо под колеса, и из-за этого кто-то посторонний должен отправиться к праотцам??? А на нем не написано - может он охуительный детский дохтур, и таких спиногрызов десяток за месяц вытаскивает
  • Надо больше уделять внимания предотвращению таких ситуаций, а не моральному выбору. Робот должен видеть всё и просчитывать всё. Когда эти задачи будут решены, то и проблемы выбора никакой не будет: в тех случаях, когда действительно случилась беда, мы скажем, что тут даже машина ничего не смогла сделать. Это я исключительно про безопасность на дороге. А вообще, даже самые тупые роботы, я уверен, снизят в разы количество ДТП на дорогах. Но проблема безответственных водителей, как в "Я, робот", подвергающих свою жизнь и жизнь посторонних, останется. К тому же всплывут другие проблемы: например, водилы будут подставлять роботов в ДТП, просто ли хитрожопые, или из ненависти к техническому прогрессу, вытесняющему их с работы. Или дети, развлекающиеся с роботами, подставляющие им задницу, чтобы тот что-нибудь такое выкинул, и громко поржать потом. Но регистраторы, в принципе, подавляющее число таких проблем смогут снять.
  • ДБ!!! Не надо роботам никаких моральных принципов. Они законодательно должны быть оборудованы "алгоритмом безопасной скорости". Что это такое? Это вычислитель максимально допустимой скорости в соответствии с дорожными условиями. Например, ночью видимость при включенном ближнем свете фар 30-40 м. Какая скорость обеспечивает полную остановку при таком тормозном пути? 50 км/ч? Это и есть огрничиваемая скорость роботом. На дороге гололёд, алгоритм должен учитывать и это. Вдоль проезжей части идут пешеходы? Ограничить! Подъезжает к нерегулируему перекрёстку? Снизить скорость до безопасной! Но тогда кто будет использовать такие тихоходы? :mask: