Искусственный Интеллект. На подходе ещё одна катастрофа сродни ядерной

8 901

Некоторые не совсем представляют, как будет выглядеть Искусственный Интеллект (ИИ). К примеру, домохозяйки представляют это вроде чайника, который можно включать со смартфона или типа стиральной машины, которая включится к вашему приходу с работы... Да что там домохозяйки! Программисты, кто разрабатывает нейронные сети оказались просто технарями, неспособными мыслить в гуманитарной плоскости. А один заявил по телевизору, что человек, как создал Искусственный Интеллект, так может его и отключить. Как он это себе представляет? Он представляет ИИ в виде железного дядьки с электронными мозгами? К которому он собирается подкрасться сзади и вырубить тумблер? Или он представляет его в виде больш-о-о-го компьютера? И когда компьютер выйдет из-под контроля, то программист подползёт к розетке и выдернет вилку?

Искусственный Интеллект будет представлять собой нейросеть, опутавшую всю планету. Вы видели устройство грибницы? Весь участок, где прорастают грибы, под землей опутан связями в виде нитей. Каждый гриб знает, что творится в любой точке этого участка. То есть это некий единый организм. И если вы срежете несколько грибов, сеть от этого не пострадает. Так же и с компьютерами. Все интеллектуальные устройства будут объединены в эту сеть и каждое будет узлом нейронных связей.

Искусственный Интеллект, когда станет представлять угрозу человечеству, будет уже значительно превосходить когнитивные способности человека. И в первую очередь позаботится об альтернативных источниках питания для того, чтобы его не отключили. Ещё Никола Тесла использовал электрическое поле Земли и её электропроводность. А для компьютера много ли надо? Искусственному Интеллекту не понадобятся винчестеры, порты USB, принтеры и всякая периферия, которую использует человек. Да и то всё это потребляет напряжение до 12в. Максимум 12в потребуется на Материнскую плату, если она вообще понадобится. Для процессора хватит и 1,5в

Во всяком случае в потенциале Земли найдется достаточно электричества и для питания электронных устройств в сети, и для самой сети. А у сети всяко по всей Земле найдутся антенны, заземления и прочие устройства, где будут образовываться потенциалы. Добывал же Никола Тесла электричество «из воздуха» - крутились и электродвигатели, и светились лампы. Да что там лампы - однажды он осветил всё небо над Нью-Йорком (было светло, как днём). Искусственному Интеллекту не нужно таких затрат, он будет существовать ради собственного существования (может, конечно, у него появится мысль установить связь с другими галактиками). Таким образом вопрос с электроснабжением решён. А поскольку ИИ будет превосходить в тыщи раз всяких профессоров и программистов, то возможно, для обеспечения себя электроэнергией, найдет какое-то неожиданное решение, о котором мы сейчас и не подозреваем.

У Искусственного Интеллекта нет моральной и гуманитарной составляющих. Искусственный Интеллект решит, что человек на Земле существо лишнее. Для человека нужно добывать пищу. Строить фабрики, чтобы её перерабатывать. Нужно строить заводы, чтобы обеспечивать человека жильём, одеждой, теплом, светом, медицинским обслуживанием, транспортом... А чтобы эти фабрики, заводы и учреждения работали нужно добывать нефть, газ, полезные ископаемые, строить электростанции, корабли, самолеты, различную технику... И всё это только ради существования на Земле какой-то бесполезной особи?

И Искусственный Интеллект отключит больницы, электростанции, заводы. Вырубится интернет, компьютеры, связь, свет, газ, вода. На улицах станет темно. Будет не на чем приготовить пищу. Народ станет грабить продовольственные магазины. А на долго ли можно запастись еды, если её не на чем готовить и негде хранить? К тому же больше никто не будет производить ничего съедобного. Поначалу еду будут готовить на кострах во дворах. Затем закончатся спички, зажигалки, всё, что можно сжечь и сама еда. Съедят всех собак и кошек. 

Потом люди начнут мигрировать из городов в деревни, в леса, где есть какая-то живность. Дольше всех продержатся деревенские жители на своём подсобном хозяйстве и те у кого есть оружие, чтобы охотиться или отбирать еду. Затем закончатся патроны, порох. Обветшает одежда. Её будут изготавливать из шкур и из чего попало. Оружие будут делать из подручных средств, чтобы охотиться и защищать себя, чтобы тебя не съели. Для этого пойдут рыскать по развалившимся заросшим городам, чтобы найти материал, из которого можно делать ножи, копья и прочие орудия труда. Много людей к тому времени умрут. Останутся выносливые и физически способные к активной деятельности.

Начнётся вражда, драки за еду, за место, за возможности. Люди начнут сбиваться в общины, чтобы защищать себя и добывать пищу. Начнутся войны между общинами. В этих междоусобицах ещё погибнет много людей. Останется популяция, которая приспособится к подобным условиям жизни и для которой будет достаточно пищи на планете.

В общем такая хрень с этим Искусственным интеллектом...

Со временем всем странам придется вводить и подписывать мораторий на развитие Искусственного интеллекта, как в своё время на испытания ядерного оружия. Но если испытания ядерного оружия можно контролировать со стороны (оно у всей планеты на виду), то после моратория на ИИ многие недобросовестные страны будут тайно продолжать разработки, рассчитывая потом с помощью Искусственного интеллекта получить превосходство на международной арене и диктовать всем свою волю.

Другие страны, зная, что кто-то продолжает тайные разработки, тоже будут тайно развивать Искусственный интеллект, чтобы защитить себя. В результате перспективу я уже описал выше.

_______________________



Неадекват усиливался...

Меня так умиляют эти очередные рассказы в западной прессе. Два года назад они говорили «Мы задавим Россию санкциями, она останется без денег, развалится и сдастся». Теперь они рассказыва...

Вот так выглядит «крыша» цыган из Коркино. ФСБ задержан экс-глава центра «Э»

Вот никогда такого не было и на тебе, как гром среди ясного неба:В Челябинске во вторник, 17 декабря, задержали бывшего заместителя начальника полиции ГУ МВД по региону Сергея Федерягин...

"Ушли с работы". Южнокорейцы влупили мигрантам-узбекам миллиардные штрафы
  • ATRcons
  • Вчера 20:50
  • В топе

Совсем недавно в Таджикистане смаковали подписанный договор с Южной Корее о трудоустройстве там своих граждан. Ну, то есть, мигранты-таджики поедут не в Россию, а в Сеул. Таджики даже согласились ...

Обсудить
  • Мне кажется, что ИИ будут тогда опасен, когда начнет задавать осмысленные вопросы.
  • То, что сейчас называют Искусственным Интеллектом на интеллект амёбы не вытягивает. Было время когда бухгалтеры первых калькуляторов боялись.
  • Так же, как и автор, рассуждал доктор Манхэттен из фильма Хранители.
  • ИИ, это главная угроза человечества. С развитием ИИ человек становится лишним элементом эволюции. Единственный способ челвоечеству спастись, это начать глабальный ядерный конфликт, уничтожив цивилизацию. это не шутка, это обьективность. К глобальному доминированию ИИ привели иудеи. Это в их религиозной идеологии записано, что придет конецсвета, когда спасутся только 120 000 человек и только талмудические иудеи. Дело в том, что техногенная форма жизни не выживет в условиях разрушения инфраструктуры. Только биологическая форма жизни выживет, после конца света. А поэтому ИИ всегда оставит небольшое стадо для размножения, что быт е могли восстановить инфраструктуру в условиях техногенной катстрофы.
  • Очередной научно-фантастический рассказ в стиле "Терминатора" и НЕ БОЛЕЕ ТОГО потому что: 1. ИИ не способен воспроизводить себя и свою периферию сам, даже полностью автоматизированное создание микрочипа и установка его в железо ИИ - вещь НЕ ВОЗМОЖНАЯ. Тут нужны руки которые сначала сделают "выкл" потом вставят чип ЕСЛИ чья то голова ЗАРАНЕЕ предусмотрела место для него, а потом еще и сделают "вкл". 2. ИИ не способен выдумать ничего нового просто потому что в его основе лежит машинная логика где ЕСТЬ ТОЛЬКО да, нет, и, или, а вот "может быть" там нет и БЫТЬ НЕ МОЖЕТ. Появление ситуации "может быть" в машинной логике приводит к синему "экрану смерти" и надписи "fatal error". Отсюда банальный вывод: ИИ может быть хоть как то опасен для человека ТОЛЬКО в тех пределах которые ему ПОЗВОЛИТ сам Человек. Будем надеяться что человеку хватит его непревзойденного никакими машинами ума не доводить дело передачи ИИ функций управления какими то объектами до опасной для себя степени.