Перспективы ИИ затмеваются его опасностями, которые включают в себя наше собственное уничтожение.
Введение
Те, кто выступает за искусственный интеллект, расхваливают огромные преимущества использования этой технологии. Например, в статье на CNN говорится о том, как ИИ помогает учёным из Принстона решить «ключевую проблему» в области термоядерной энергии. ИИ, который может преобразовывать текст в аудио и аудио в текст, делает информацию более доступной. С помощью этой технологии можно быстрее выполнять многие цифровые задачи.
Однако любые преимущества, которые может дать ИИ, меркнут по сравнению с катастрофическими опасностями, которые таит в себе эта противоречивая новая технология. У человечества есть небольшой шанс остановить технологическую революцию, непреднамеренные негативные последствия которой значительно перевесят любые краткосрочные выгоды.
В начале XX века люди (в частности, в Соединённых Штатах) могли бы остановить распространение автомобилей, сосредоточившись на улучшении общественного транспорта, тем самым сэкономив огромное количество энергии, предотвратив выбросы миллиардов тонн парниковых газов и гибель более 40 000 человек в автомобильных авариях только в США. Но мы этого не сделали.
В середине века мы могли бы предотвратить разработку атомной бомбы и избежать апокалиптических опасностей, с которыми мы сейчас сталкиваемся. Мы упустили и эту возможность. (Новые ядерные бомбы всё ещё разрабатываются и производятся.)
В конце XX века правила, основанные на принципе предосторожности, могли бы предотвратить распространение токсичных химикатов, которые сейчас отравляют всю планету. Мы потерпели неудачу и в этом случае.
Теперь у нас есть ещё один шанс.
Благодаря ИИ человечество передаёт на аутсорсинг исполнительную власть практически во всех ключевых отраслях — финансах, военном деле, медицине и сельском хозяйстве — алгоритмам, не обладающим моральными качествами.
Если вам интересно, что может пойти не так, то вариантов множество.
Если такая возможность ещё существует, то окно возможностей для остановки ИИ скоро закроется. ИИ коммерциализируется быстрее, чем другие основные технологии. Действительно, скорость — это его суть: он саморазвивается благодаря машинному обучению, и каждая итерация значительно опережает закон Мура.
А поскольку ИИ используется для ускорения всех процессов, оказывающих значительное влияние на планету (производство, транспорт, связь и добыча ресурсов), он представляет собой не только сверхмощную угрозу для выживания человечества, но и для всего живого на Земле.
Опасности, связанные с искусственным интеллектом, множатся
В июне 2023 года я написал статью, в которой описал некоторые опасности, связанные с ИИ. Теперь эта статья сильно устарела. Всего за короткий промежуток времени ИИ продемонстрировал более опасные последствия, чем многие из нас могли себе представить.
В статье под названием «DNAI — конвергенция искусственного интеллекта и искусственной жизни» Джим Томас рассказывает о перспективах «экстремальной генной инженерии», которые открывает ИИ. Если искусственный интеллект хорошо справляется с генерацией текста и изображений, он также отлично умеет читать и переставлять буквы генетического алфавита.
Технологический гигант Nvidia уже разработал то, что Томас называет «первичным ChatGPT для разработки вирусов и микробов», и его применение можно найти во многих областях наук о жизни, включая медицину, сельское хозяйство и разработку биологического оружия.
Как будут работать меры по обеспечению биобезопасности для новых синтетических организмов, учитывая, что вся система проектирования, создающая их, непрозрачна? Как мы можем адекватно защититься от опасностей, связанных с тысячами новых белков, созданных искусственным интеллектом, если мы уже плохо справляемся с оценкой опасности новых химических веществ?
Исследования развиваются с невероятной скоростью, но надзор и регулирование продвигаются черепашьими темпами.
Угрозы финансовой системе со стороны ИИ только начинают осознаваться. В декабре 2023 года Совет по надзору за финансовой стабильностью США (FSOC), состоящий из ведущих регуляторов по всему правительству, классифицировал ИИ как «возникшую уязвимость».
Поскольку ИИ действует как «чёрный ящик», скрывающий свои внутренние операции, банкам, использующим его, может быть сложнее «оценить концептуальную надёжность системы».
Согласно статье CNN, регулирующие органы FSOC отметили, что ИИ «может давать и, возможно, маскировать предвзятые или неточные результаты, [вызывая] опасения по поводу справедливого кредитования и других вопросов, связанных с защитой прав потребителей».
Может ли торговля акциями и облигациями с использованием ИИ обвалить рынки ценных бумаг? Возможно, нам не придётся долго ждать, чтобы это выяснить. Председатель Комиссии по ценным бумагам и биржам Гэри Генслер в мае 2023 года говорил “о потенциале искусственного интеллекта вызвать [финансовый] кризис”, согласно статье U.S. News, назвав это “потенциальным системным риском”.
Тем временем ChatGPT тратит большую часть дня на изречение причудливой чепухи в ответ на вопросы пользователей и часто «галлюцинирует», то есть «начинает выдумывать вещи, которые не [соответствуют] реальности», — сказал Джевин Уэст, профессор Вашингтонского университета, согласно статье CNN, в которой он был процитирован. Что происходит, когда ИИ начинает галлюцинировать по поводу финансовых отчётов и сделок с акциями?
Смертоносное автономное оружие уже используется на поле боя. Добавьте к этому оружию искусственный интеллект, и всё человеческое, что ещё осталось в войне, — ответственность, моральные устои и сострадание — исчезнет. Роботы-убийцы уже проходят испытания в ходе новых кровавых конфликтов по всему миру — в Украине и России, Израиле и Палестине, а также в Йемене и других странах.
С самого начала было очевидно, что ИИ усугубит экономическое неравенство. В январе МВФ прогнозировал, что ИИ повлияет почти на 40% рабочих мест в мире (около 60% в богатых странах). Это повлияет на заработную плату и приведёт к сокращению рабочих мест. Несомненно, это заниженные оценки, поскольку возможности технологии постоянно расширяются.
В целом, результатом станет то, что люди, которые смогут извлечь выгоду из этой технологии, станут богаче (некоторые — значительно богаче), в то время как большинство остальных ещё больше отстанут. В частности, невероятно богатые и влиятельные компании, работающие в сфере цифровых технологий, увеличат своё социальное и политическое влияние далеко за пределы уже абсурдных уровней.
Иногда утверждается, что ИИ поможет решить проблему изменения климата, ускорив развитие низкоуглеродных технологий. Но энергопотребление ИИ вскоре может превысить энергопотребление многих небольших стран. А центры обработки данных ИИ также поглощают землю и воду.
ИИ даже вторгается в нашу личную жизнь, как предсказывалось в фильме 2013 года «Она». В то время как интернет изменил отношения с помощью онлайн-знакомств, ИИ может заменить партнёрство между людьми на интимные отношения между человеком и машиной. Уже сейчас Replika позиционируется как «заботливый ИИ-компаньон», предлагающий пользователям вести глубоко личные беседы, в том числе обмениваться сексуальными сообщениями.
Сексуальные роботы разрабатываются якобы для пожилых людей и людей с ограниченными возможностями, хотя первыми клиентами, похоже, становятся состоятельные мужчины.
Личное общение между людьми становится всё более редким, и пары сообщают о снижении частоты сексуальной близости. С появлением ИИ эти тревожные тенденции могут вырасти в геометрической прогрессии. Скоро вы и ваши машины будете противостоять всему миру.
По мере приближения президентских выборов в США потенциальная утечка множества дипфейковых аудио- и видеозаписей может поставить под угрозу демократию в стране. Действительно ли кандидат это сказал? Чтобы это выяснить, потребуется время. Но будет ли сама проверка фактов осуществляться с помощью ИИ? Индия экспериментирует с политическим контентом, созданным искусственным интеллектом, в преддверии национальных выборов, которые запланированы на 2024 год, и результаты выглядят странно, обманчиво и провокационно.
Всесторонний анализ ситуации показывает, что ИИ, скорее всего, ускорит все негативные тенденции, которые в настоящее время угрожают природе и человечеству. Но это обвинение по-прежнему не учитывает его потенциальную способность сделать людей и, возможно, всё живое ненужным.
Угрозы, исходящие от ИИ, — это не просто набор легко устранимых ошибок. Это неизбежные проявления присущей технологии природы — её скрытых внутренних механизмов и саморазвития функций. И это не тривиальные опасности; они экзистенциальные.
Тот факт, что некоторые разработчики ИИ, которые лучше всего знакомы с этой технологией, являются её самыми ярыми критиками, должен нам о чём-то говорить. На самом деле, политики, эксперты по ИИ и журналисты опубликовали заявление, в котором предупреждают, что «снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Многие критические статьи об ИИ в ведущих СМИ призывают к приостановке его развития «на безопасном уровне». Некоторые критики призывают к регулированию «плохих» применений этой технологии — в исследованиях в области вооружений, распознавании лиц и дезинформации. Действительно, в декабре 2023 года представители Европейского союза сделали шаг в этом направлении, достигнув предварительной договорённости о первых в мире всеобъемлющих законах, регулирующих ИИ.
Когда появляется новая технология, обычно принято ждать и наблюдать за её положительными и отрицательными последствиями, прежде чем вводить правила. Но если мы будем ждать, пока ИИ разовьётся дальше, мы больше не будем контролировать ситуацию. Возможно, мы не сможем вернуть контроль над созданной нами технологией.
Аргумент в пользу полного запрета ИИ проистекает из самой природы этой технологии: её технологическая эволюция предполагает ускорение до скоростей, которые не поддаются человеческому контролю или подотчётности. Полный запрет — это решение, которое предложил пионер ИИ Элиэзер Юдковский в своей ключевой статье в TIME:
«[П]о-видимому, результатом создания сверхчеловечески умного ИИ в условиях, хотя бы отдалённо напоминающих нынешние, станет то, что буквально все на Земле умрут. Не в смысле «возможно, когда-нибудь», а в смысле «это очевидный исход».
Юдковски продолжает объяснять, что в настоящее время мы не можем наделить ИИ заботой или моралью, поэтому мы получим ИИ, который «не любит вас и не ненавидит вас, а вы состоите из атомов, которые он может использовать для чего-то другого».
Подчёркивая и подтверждая предупреждение Юдковски, исследование, опубликованное 11 марта при финансовой поддержке Госдепартамента США, заявило, что нерегулируемый ИИ представляет собой «угрозу вымирания» для человечества.
Чтобы остановить дальнейшее использование и развитие этой технологии, потребуется глобальный договор — а это огромное препятствие, которое необходимо преодолеть. Разработчики соглашения должны будут определить ключевые технологические элементы, которые делают ИИ возможным, и запретить исследования и разработки в этих областях в любой точке мира.
В истории есть лишь несколько прецедентов, когда происходило нечто подобное. Тысячу лет назад китайские лидеры остановили зарождающуюся промышленную революцию, основанную на угле и технологиях, работающих на угле (потомственные аристократы опасались, что выскочки-промышленники в конечном итоге захватят политическую власть).
В период сёгуната Токугава (1603–1867) в Японии было запрещено большинство видов оружия, что почти полностью исключило смертность от огнестрельного оружия. А в 1980-х годах мировые лидеры собрались в Организации Объединённых Наций, чтобы запретить большинство хлорфторуглеродных химикатов для сохранения озонового слоя планеты.
Запрет на использование ИИ, скорее всего, станет более сложной задачей, чем любая из этих трёх исторических проблем. Но если это произойдёт, то должно произойти сейчас.
Предположим, что движение за запрет ИИ добьётся успеха. В таком случае это может разрушить нашу коллективную иллюзию о неолиберальном капитализме, и люди и их правительства наконец осознают необходимость установления ограничений. Это уже должно было произойти в связи с климатическим кризисом, который требует, чтобы мы строго ограничили добычу ископаемого топлива и потребление энергии.
Если угроза ИИ, будучи настолько серьёзной, вынуждает нас устанавливать ограничения для самих себя, возможно, это может пробудить институциональную и межправительственную смелость, необходимую для принятия мер в отношении других экзистенциальных угроз.
«Почему искусственный интеллект необходимо остановить прямо сейчас» Ричарда Хейнберга лицензировано Observatory по международной лицензии Creative Commons Attribution-NonCommercial-ShareAlike 4.0 (CC BY-NC-SA 4.0). Для получения разрешений, выходящих за рамки этой лицензии, пожалуйста, ознакомьтесь с руководством http://Observatory.wiki по повторному использованию и перепечатке. Последнее редактирование: 20 марта 2024 г.
Автор тизерного фото: Герд Альтманн с Pixabay
https://www.resilience.org/stories/2024-03-21/why-…
Оценили 0 человек
0 кармы