Преамбула
«Властелином мира» станет та страна, которая займет лидирующее место в области ИИ-разработок.
«Искусственный интеллект — это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы». В. Путин
«Разработка полноценного искусственного интеллекта может повлечь за собой уничтожение человеческой расы». С. Хокинг
«Боюсь, искусственный интеллект может полностью заменить людей». С. Хокинг
Чего ждать и на что надеется в век сверхумных машин?
Умные машины научились лучше человека видеть, слышать, осязать, ощущать и обонять, а также блефовать, хакерствовать, играть в видеоигры, шахматы или Го, переводить, распознавать человеческий голос и обрабатывать естественные языки. Каждый день мы узнаем о все новых свершениях компьютерных программ, умеющих распознавать сложные образы, ставить медицинские диагнозы, рисовать не хуже классиков, петь или генерировать текст. Что будет дальше? Научать ли самому сложному когнитивному процессу - мышлению? Стоит ли человеку опасаться искусственного интеллекта?
Как человек, занимающийся Искусственным Сверх Интеллектом (ИСИ), я часто сталкиваюсь с тем, что многие люди боятся прихода реального ИИ и того, во что он может превратиться. http://www.worldxxi.com
Сюда входят и простые и непростые люди, как Маск, Хокинг, Гейтс и др.
Стивен Хокинг считал, что ИИ станет либо самым лучшим, либо самым худшим явлением в истории человечества. Угрозу в бесконтрольном развитии ИИ также видит предприниматель Илон Маск, который выступает за законодательные ограничения и против внедрения военных роботов.
ИИ - угроза или помощник для человечества?
Это решается самими людьми.
«В мире царит ненависть друг к другу. Мы идём войной друг на друга. Мы несправедливо распределяем еду, знания и медицинскую помощь. Мы загрязняем планету».
Люди относятся к друг другу как к технологическому инструменту, средству, объекту, орудию.
Сама человеческая психика легко подается манипуляции: контролю над своим поведением посредством внедрения в сознание ложных идей, мыслей и представлений, формированию искаженного образа мира с помощью массированного распространения специально подготовленной по форме и содержанию информации.
Людям не важно, кто ими манипулирует, другие люди или машины.
Как и компьютерные системы, программирование мыслей, намерений, чувств, отношений, установок, поведения не представляет большого труда. Поскольку манипуляция массовым сознанием служит не только ключевым элементом психологических операций и информационной войны, но и всей технологией власти над людьми.
Неудивительно, что индустрия дешевых развлечений пугает людей кибернетическим восстанием умных машин, которые поместят нас в резервации на закрытых территориях, или превратят в человеческие биобатарейки, как в антиутопии «Матрица».
Попробуем понять: где правда, а где вымысел, и насколько реальна угроза человеческому существованию.
Исчезнет ли человеческий род?
Сегодня раздаются призывы разработать этические принципы разработки будущего ИИ, удостоверившись в том, что ОН/ОНА развивается в безопасном для людей направлении.
Еще в конце 2014 г. Хокинг выступил с предупреждением — что искусственный интеллект может означать конец человеческой расы.
Элон Маск, генеральный директор SpaceX и Tesla, предупреждал, что шанс на то, что случится нечто опасное в результате появления машин с искусственным интеллектом, может выстрелить уже через пять лет. Ранее он утверждал, что развитие автономных думающих машин сродни «призыву демона». Маск описал искусственный интеллект как нашу «крупнейшую угрозу для выживания»: «Я думаю, нам стоит быть очень осторожными с искусственным интеллектом. Если бы я мог предположить, какой будет наша крупнейшая угроза для выживания, то это он. Нам нужно быть очень осторожными с искусственным интеллектом. Я все больше и больше склоняюсь к тому, что должен быть некий регулятивный надзор, возможно, на национальном и международном уровне, просто чтобы знать, что мы не делаем дурацких ошибок».
Группа ученых и предпринимателей подписала открытое письмо, обещающее положить начало исследованиям безопасности ИИ.
Письмо предупреждает о том, что без каких-либо гарантий развитие умных машин может означать темное будущее для человечества.
Письмо подписано физиком Стивеном Хокингом, соучредителем Skype Яаном Таллинном, генеральным директором SpaceX Маском и другими светилами науки из лучших университетов мира: Гарвардского, Стэнфордского, Массачусетского, Кэмбриджского, Оксфордского; сюда присоединились такие компании, как Google, Microsoft и IBM.
Письмо обращается ко всем возможным проблемам, которые находятся на стыке искусственного и естественного интеллекта:
как предупредить появление автоматического оружия, которое может убивать без разбора;
кого винить в том, что автоматический транспорт теряет контроль над управлением и т. п.
https://futureoflife.org/ai-op...
Как продолжение письма, недавно опубликован отчет "Вредоносное использование искусственного интеллекта".
Здесь обсуждается три формы безопасности:
Цифровая
Физическая
Политическая
Считается, что снаряды-дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом - вот три основные угрозы, которые, по мнению экспертов, исходят от искусственного интеллекта, попавшего в плохие руки.
Также ИИ вполне может использоваться странами-изгоями, преступниками и террористами.
Те, кто производят робототехнику и системы искусственного интеллекта, должны прикладывать больше усилий к тому, чтобы их технология не была применена во вред, предупреждают авторы доклада и призывают правительства подумать о принятии новых законов.
Доклад призывает к следующему:
Политики и инженеры-разработчики должны совместно определить, каким именно может быть вредоносное использование ИИ и как это предотвратить
Осознать, что в то время как ИИ имеет множество разнообразных применений, это обоюдоострая технология, поэтому ученые и разработчики должны это учитывать и упреждать возможное злонамеренное использование ИИ
Перенять подход, который существует, к примеру, в сфере компьютерных технологий, где уже выработаны предохранительные меры против подобных рисков
Активное расширение круга заинтересованных сторон, связанных с упреждением и смягчением рисков злонамеренного использования ИИ
В докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу.
Особую тревогу вызывают новые методы обучения, применяемые к ИИ, когда робототехника доводится до уровня сверхчеловеческих интеллектуальных возможностей, но не имеет при этом ни примеров для подражания, ни руководства на человеческом уровне.
Высший Интеллект: Искусственный Разум, Сознательные Системы и Духовные Машины
«Исследования ИИ с самого начала включали изучение широкого круга проблем и направлений, но последние 20 лет особое внимание уделяется проблемам, связанным с построением интеллектуальных агентов – систем, воспринимающих окружающую среду и действующих в ней.
В этом контексте «интеллект» связан со статистическими и экономическими понятиями рациональности, проще говоря, с умением принимать правильные решения, строить планы или делать выводы». Так начинается открытое письмо.
При всей гуманности обращения, оно страдает одним серьезным недостатком, которое делает инициативу бессмысленной. Это понимание интеллекта как связанного «со статистическими и экономическими понятиями рациональности».
Такой машинный интеллект не представляет особой угрозы человечеству, если не считать отсутствия в нем причинных моделей поведения и объяснения мира.
В целом, Искусственный Разум, или Искусственный Интеллект, определяется как наука и технология создания интеллектуальных систем, работающих на базе интеллектуальных информационных технологий, вычислительных систем, компьютерных программ и сложных алгоритмов.
Такие системы МО, как Watson от IBM или Alpha от Google, представляют собой искусственные нейронные сети и обладают впечатляющими вычислительными возможностями, все же относятся к классу узкого ИИ.
Ближайшая цель реальных интеллектуальных систем выполнять все функции, которые традиционно считаются прерогативой человека, как-то, чувствовать, представлять, общаться, читать, обучаться, планировать, думать, мечтать, размышлять, решать проблемы и др.
Конечная цель - создание искусственного разума, представляющего интеграцию уже созданных систем ИИ в единую систему, способную решать проблемы человечества, и известного как Сильный ИИ, или Энциклопедический Интеллект, или Общий ИИ.
СИИ - это Искусственный Разум, Сознательные Системы и Духовные Машины, все в одном флаконе.
«Духовные Машины» не просто моделируют высшие ментальные функции, но и намного превосходят человека в их исполнении:
• Общее представление о мире и реальности
• Принятие решений, использование стратегий, решение проблем и действия в условиях неопределенности;
• Мышление и рассуждение;
• Представление знаний;
• Планирование, автоматическое планирование и диспетчеризация, выполнения стратегии или последовательности действий;
• Обучение; Обучение по прецедентам, индуктивное обучение, дедуктивное обучение;
• Общение на естественном языке;
• Сознание: Быть восприимчивым к окружающей среде, представление об окружающем мире, включая самого себя;
• Самосознание: Осознание себя, понимание собственных мыслей и действий;
• Мораль и Нравственность;
• Душа, способности ощущения, мышления, сознания, чувства и воли;
• Духовная Мудрость, знание первых причин и начал, цели и смысла жизни…
Психическая и духовная природа человека остается неизменной уже многие тысячелетия, если не подвергается духовной деградации.
Симбиоз человека и машины с помощью когнитивных наук, создающие человеко-машинные нейроинтерфейсы, может привести к кибер-физическому сверхинтеллекту, способному к перепрограммированию и рекурсивному само-развитию.
Есть ли точка невозврата?
Опять же мой коллега по первому цеху, физик-теоретик Стивен Хокинг, в свое время предупредил:
«Боюсь, искусственный интеллект может полностью заменить людей». В скором времени развитие технологии ИИ дойдет до такого уровня, что ИИ сам будет совершенствовать себя, перейдя в режим самосборки. С такой формой жизни человечество будет или конкурировать, или кооперировать.
«Если сейчас люди разрабатывают компьютерные вирусы, то в будущем кто-то сможет создать искусственный интеллект, который сможет улучшать и воспроизводить самого себя. Это станет новой формой жизни, которая превзойдет человека». При этом, британский ученый допускал, что в погоне за эффективностью роботы могут захотеть избавиться от человеческого рода.
То, что умные машины превзойдут человеческий интеллект все меньше сомнений у специалистов.
Но вопрос, когда возникнет эта точка невозврата технологической сингулярности, вызывает споры. Одни считают, что Скайнет появиться до 2040 г., другие - в 2030 г.
Отметим, что технологическая сингулярность — это момент социального времени, когда возникнет рекурсивно самоулучшающийся искусственный интеллект, самая мощная интеллектуальная машина сможет создать другую машину, которая превзойдёт возможности людей, может произойти некий «интеллектуальный взрыв».
Технология окажется недоступным человеческому пониманию после создания ИИ и самовоспроизводящихся машин, интеграции человека с вычислительными машинами, и увеличения возможностей человеческого мозга за счёт биотехнологий.
В кинематографе неудачным примером фильма, посвящённого технологической сингулярности и реакции человечества на неё, является «Превосходство».
Симбиоз человека и машины с помощью когнитивных наук, создающие человеко-машинные нейроинтерфейсы, может привести к кибер-физическому сверхинтеллекту, способному к перепрограммированию и рекурсивному само-развитию.
Можете назвать такой симбиоз рождением Постчеловека, Сверхчеловека или Богочеловека: «как от обезьяны произошёл человек, так из человека должен произойти сверхчеловек», Ницше.
Глупо боятся неизбежного прихода СИИ, как Искусственной Сверхинтеллектуальной Системы. Понятно, человеческая безработица из-за ИИ, автоматизации и роботизации не может стать препятствием последней научно-технической революции.
Учитывая настрой человека и человечества на само-разрушение, стать интегральной частью глобального мозга и сверх-интеллекта - это единственное спасение людей от нынешней бессмысленности и бездуховности потребительского мира.
Заключение
Ученое сообщество может спорить о сроках появления умных машин, но сходится в одном: развитие технологий ИИ окажет революционное влияние на природу человека, общества, экономики и отношения между людьми и машинами.
Понятно, что у нынешнего человека нет будущее: «В мире царит ненависть друг к другу. Мы идём войной друг на друга. Мы несправедливо распределяем еду, знания и медицинскую помощь. Мы загрязняем планету».
Исчезнет ли человеческий род? Вряд ли.
Скорее подвергнется тотальной машинной манипуляции путём создания иллюзий и условий для управления поведением, погрузив всю человеческую аудиторию в состояние иллюзорности виртуального мира.
Хотя, есть перспектива и Богочеловека, для отдельно взятых или для всех.
ВСЕ В НАШИХ ЧЕЛОВЕЧЬИХ РУКАХ.
Источники
Умный мир: http://www.worldxxi.com
Как построить глобальный Искусственный Интеллект на основе Мировой Нейросети и совершить технологический прорыв в будущее?
https://cont.ws/@ashacontws/11...
Сверхинтеллект и судьба человека: «О дивный новый мир!»
https://cont.ws/@ashacontws/11...
Открытое письмо
НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЕ ПРИОРИТЕТЫ ДЛЯ СОЗДАНИЯ НАДЕЖНОГО И ПОЛЕЗНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
https://futureoflife.org/ai-op...
"Вредоносное использование искусственного интеллекта"
https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf
Приложение
Открытое письмо
НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЕ ПРИОРИТЕТЫ ДЛЯ СОЗДАНИЯ НАДЕЖНОГО И ПОЛЕЗНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Исследования искусственного интеллекта (ИИ) с самого начала включали изучение широкого круга проблем и направлений, но последние 20 лет особое внимание уделяется проблемам, связанным с построением интеллектуальных агентов – систем, воспринимающих окружающую среду и действующих в ней. В этом контексте «интеллект» связан со статистическими и экономическими понятиями рациональности, проще говоря, с умением принимать правильные решения, строить планы или делать выводы.
Применение вероятностных репрезентаций и теории принятия решений, а также использование методов статистического обучения привели к значительной интеграции и взаимному обогащению ИИ, машинного обучения, статистики, теории управления, нейронаук и других областей. Установление общих теоретических основ в сочетании с доступом к данным и вычислительным мощностям позволило добиться значительных успехов в решении различных составных задач, таких как распознавание речи, классификация изображений, машинный перевод, моделирование ходьбы, создание автономных транспортных средств и вопросно-ответных систем.
По мере того как коммерческий потенциал этих и других применений технологий ИИ выходит за рамки чисто лабораторных исследований и они приобретают экономическую ценность, наступает благотворный цикл развития технологии, когда даже незначительное улучшение функций ведет к заметному росту экономической ценности, привлекая инвесторов. Сегодня существует распространенное мнение, что исследования ИИ неуклонно развиваются и что его воздействие на общество, скорее всего, будет и дальше расти. Потенциальные выгоды применения ИИ огромны, учитывая что все достижения современной цивилизации — продукт человеческого интеллекта, и трудно представить, каких еще высот можно достичь, усилив человеческий разум инструментами ИИ, но даже искоренение болезней и нищеты представляется возможным. Потенциал ИИ колоссален, и поэтому важно понять, как воспользоваться его преимуществами и не угодить в опасную ловушку.
Прогресс в разработке ИИ диктует настоятельную необходимость не только совершенствовать его способности, но и максимизировать выгоду, которую ИИ принесет обществу. Для решения этих проблем в 2008 году была создана президентская экспертная группа по долгосрочным перспективам ИИ при Ассоциации по продвижению ИИ (AAAI) и инициированы другие проекты по исследованию влияния ИИ, что свидетельствует о расширении диапазона исследований ИИ, до недавних пор сосредоточенных на технологии, а не на цели. Мы поддерживаем расширенные исследования, направленные на обеспечение надежности и полезности ИИ-систем с постоянно растущими возможностями: наши ИИ-системы должны делать то, что мы от них хотим. Прилагаемый документ об исследовательских приоритетах содержит ряд примеров направлений исследований, ориентированных на получение максимальной общественной выгоды от использования ИИ.
Такие исследования неизбежно имеют междисциплинарный характер, поскольку затрагивают как ИИ, так и общество, и включают целый ряд дисциплин от экономики, философии и права до компьютерной безопасности, формальных методов и, разумеется, различных областей собственно ИИ.
Таким образом, мы считаем, что научные исследования проблем обеспечения надежности и полезности ИИ-систем важны и своевременны и существуют конкретные направления исследований, которыми можно заниматься уже сегодня.
На настоящий момент это открытое письмо подписали более 8000 человек. Если вы хотите подписать это письмо или просмотреть список подписавших, пожалуйста, посетите страницу открытого письма на английском языке.
https://futureoflife.org/ai-op...
https://futureoflife.org/ai-op...
ОТКРЫТОЕ ПИСЬМО К КОНВЕНЦИИ ОРГАНИЗАЦИИ ОБЪЕДИНЕННЫХ НАЦИЙ ОБ УПОТРЕБЛЕНИИ ОПРЕДЕЛЁННОГО ВИДА ОРУЖИЯ
Мы, как компании, развивающие технологии в области искусственного интеллекта и робототехники, понимаем, что эти технологии могут быть использованы для разработки автономного оружия. Именно поэтому мы несём на себе особую ответственность.
Мы тепло приветствуем решения Конференции ООН, касающиеся Конвенции об использовании определённых видов оружия о создании Группы правительственных экспертов (ГПЭ) по системам смертоносных автономных оружий. Многие наши учёные и инженеры жаждут предложить свои технические решения.
Мы рады приветствовать посла Амандипа Сингх Гилла из Индии в качестве председателя ГПЭ. Мы обращаемся к Договаривающимся Сторонам, участвующим в ГПЭ, прилагаем все усилия для того, чтобы предотвратить гонку вооружений. Мы хотим защитить граждан от неправильного использования оружия, тем самым избежать разрушительное воздействие этих технологий. Мы с сожалением сообщаем, что первое заседание ГПЭ, которое должно было начаться сегодня (21 августа 2017 года), было отменено из-за некоторых государств, которые не смогли выплатить финансовые взносы в ООН. Поэтому мы настоятельно призываем Договаривающиеся Стороны приложить как можно больше усилий на первом совещании ГПЭ, которое запланировано на ноябрь.
Смертоносное автономное оружие грозит стать третьей революцией в военном деле. Такое оружие позволит вооруженному конфликту вести борьбу в огромном масштабе. Это может быть самая сокрушительная и быстрая война. Технологии могут стать оружием террора, оружием, которое деспоты и террористы могут использовать против невинного населения. Нам нельзя медлить. Как только ящик Пандоры откроется, закрыть его будет практически невозможно. Именно поэтому мы призываем Договаривающиеся Стороны найти способ защитить нас всех от этой опасности.
https://futureoflife.org/open-...
The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation
Artificial intelligence and machine learning capabilities are growing at an unprecedented rate. These technologies have many widely beneficial applications, ranging from machine translation to medical image analysis. Countless more such applications are being developed and can be expected over the long term. Less attention has historically been paid to the ways in which artificial intelligence can be used maliciously. This report surveys the landscape of potential security threats from malicious uses of artificial intelligence technologies, and proposes ways to better forecast, prevent, and mitigate these threats. We analyze, but do not conclusively resolve, the question of what the long-term equilibrium between attackers and defenders will be. We focus instead on what sorts of attacks we are likely to see soon if adequate defenses are not developed.
We structure our analysis by separately considering three security domains, and illustrate possible changes to threats within these domains through representative examples:
• Digital security. The use of AI to automate tasks involved in carrying out cyberattacks will alleviate the existing tradeoff between the scale and efficacy of attacks. This may expand the threat associated with labor-intensive cyberattacks (such as spear phishing). We also expect novel attacks that exploit human vulnerabilities (e.g. through the use of speech synthesis for impersonation), existing software vulnerabilities (e.g. through automated hacking), or the vulnerabilities of AI systems (e.g. through adversarial examples and data poisoning).
• Physical security. The use of AI to automate tasks involved in carrying out attacks with drones and other physical systems (e.g. through the deployment of autonomous weapons systems) may expand the threats associated with these attacks. We also expect novel attacks that subvert cyberphysical systems (e.g. causing autonomous vehicles to crash) or involve physical systems that it would be infeasible to direct remotely (e.g. a swarm of thousands of micro-drones).
• Political security. The use of AI to automate tasks involved in surveillance (e.g. analysing mass-collected data), persuasion (e.g. creating targeted propaganda), and deception (e.g. manipulating videos) may expand threats associated with privacy invasion and social manipulation. We also expect novel attacks that take advantage of an improved capacity to analyse human behaviors, moods, and beliefs on the basis of available data. These concerns are most significant in the context of authoritarian states, but may also undermine the ability of democracies to sustain truthful public debates.
https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf
Оценили 3 человека
8 кармы