Убийственный интеллект: смерть от технологий и другие обычные ужасы в Газе

0 125

«Евангелие», новейший гаджет с искусственным интеллектом, использованный ЦАХАЛ в Газе, открывает путь к новому способу ведения войны, который может способствовать дальнейшей дегуманизации людей под прикрытием технологического прогресса, эффективности и точности. Но Газа показывает нам и другую опасность: даже когда ИИ используется для «возвращения человечности», кто решает, кто заслуживает того, чтобы к нему относились как к человеку, а кто должен остаться в забвении?

Иллюстрация Джафара Сафатлы

«Остановитесь, не продолжайте движение», — говорит мигающий красный свет. Но если загорается зелёный, значит, можно ехать, и вы можете двигаться дальше. Подобно привычным светофорам, сопровождающим повседневную рутину нашей городской жизни, «Евангелие» разворачивает свою смертоносную историю разрушения в ярких оттенках красного и зелёного. Как и обычные светофоры, оно механически переключается с одного цвета на другой, не обращая внимания на значение.

Однако, в отличие от своего городского аналога, цель этой системы машинного обучения состоит не в том, чтобы сохранить жизнь, а в том, чтобы распорядиться смертью.

«Евангелие», или «Хабсора» на иврите, — это новейшее технологическое устройство, используемое Армией обороны Израиля для ведения войны в Газе. Основываясь на имеющихся данных, этот ИИ определяет потенциальные цели в секторе Газа и рассчитывает количество жертв среди гражданского населения, которые теоретически могут возникнуть в результате нанесения ударов по этим объектам.

По сути, система предлагает оценку вероятного числа погибших и оценивает стратегическую ценность нанесения ударов по конкретным районам. Этот процесс основан на вероятностном выводе, который включает в себя анализ ранее собранных данных для выявления закономерностей и выработки рекомендаций на основе вероятности.

В отличие от греческой этимологии своего названия «евангелион», подразумевающей «благая весть», Евангелие вместо этого нанесло беспрецедентный ущерб и опустошение на палестинскую землю.

Однако, несмотря на библейское название, предполагающее абсолютную истину и непогрешимое послание, «Хабсора», как и все системы машинного обучения, опирается на корреляцию, а не на причинно-следственную связь, и на вероятность, а не на определённость.

Помимо того, что это усиливает вводящую в заблуждение человеческую склонность считать машины беспристрастными и объективными, что является ключевым фактором, формирующим современную идеологию ИИ и «шумиху» вокруг неё, интеграция таких технологий в военную сферу приводит к резкому ускорению темпов ведения боевых действий и, как следствие, к применению смертоносной силы с беспрецедентной скоростью.

ИИ, который воспринимается как нечто божественное, обладает способностью анализировать огромные объёмы данных и формулировать решения со скоростью, намного превосходящей человеческое мышление.

Как указал бывший глава Армии обороны Израиля, в то время как аналитики-люди обычно выявляют около 50 целей для бомбардировок в год, Habsora может генерировать до 100 целей в день, предоставляя рекомендации в режиме реального времени относительно того, какие цели следует выбирать в первую очередь. «Мы используем алгоритм для оценки количества оставшихся гражданских лиц. Он показывает нам зелёный, жёлтый или красный цвет, как светофор», — подчеркнул бывший высокопоставленный израильский военный в интервью The Guardian.

В рекламных видеороликах, размещённых на сайте Армии обороны Израиля, показано, как Евангелие предлагает военным свои цели. В сопровождении нарастающего крещендо драматичной музыки эти сцены создают атмосферу видеоигры, в которой видоискатель сканирует, наводится на цель и в конечном счёте уничтожает её.

Здания, которые кажутся заброшенными и изолированными, методично и с триумфом разрушаются. Эти рекламные ролики перекликаются с риторикой о точности, аккуратности и эффективности, которую израильские военные постоянно подчёркивают в публичных заявлениях.

Они изображают палестинскую территорию как набор целей, по которым можно стрелять, превращая её в пустынный ландшафт, лишённый жителей. По сути, это пустошь. ИИ организует военные действия с холодной эффективностью, скоростью и фасадом «рациональности», превращая поле боя в клинический контрольный список, похожий на конвейерную линию на производственном предприятии.

В то же время всё кажется знакомым и безопасным, напоминая безобидную городскую обстановку с дорожными знаками, как будто это не имеет никакого отношения к убийству людей и уничтожению гражданской инфраструктуры.

В психогеографии Евангелия, где на карте Газы появляются красные, жёлтые и зелёные маркеры, палестинский народ превратился в «мишень для силы». Эти цели выходят за рамки чисто военных объектов и включают в себя частные дома, высотные здания, общественные учреждения и критически важную инфраструктуру. Согласно расследованию, проведённому журналом +972 и Local Call, с первых дней нынешней войны в Газе количество таких объектов, наряду с «оперативными домами», в которых, как предполагается, проживает один человек, связанный с ХАМАС, превысило количество чисто военных объектов.

Как указано в различных источниках, на которые ссылается статья, согласно давним военным протоколам Израиля, удары по объектам электроэнергетики наносятся только в том случае, если здания не были заняты во время атаки. Однако с 7 октября 2023 года произошло заметное отклонение от этой нормы, о чём свидетельствует множество новостных репортажей и постов в социальных сетях, документирующих беспрецедентное уничтожение гражданской инфраструктуры и человеческих жизней в Газе.

Новый способ ведения войны?

Такие технологии, как «Евангелие», служат инструментом для укрепления идеологии, направленной на дегуманизацию или обесчеловечивание палестинского народа. Эта тенденция резко усилилась после 7 октября.

После нападения ХАМАС 7 октября 2023 года такие технологии, как «Евангелие», стали ключевыми в продвижении военной стратегии, которая делает упор на удалённое взаимодействие. Этот подход глубоко укоренён в глобальной идеологии наблюдения и автоматизированной войны, в которой приоритет отдаётся понятиям эффективности и безупречности. Эта глобальная тенденция ведения войны «на расстоянии» ещё больше усугубляет давний процесс дегуманизации палестинцев, который формировался на протяжении многих лет и тесно связан с неизбирательными убийствами мирных жителей.

Стратегия нанесения значительного ущерба гражданскому населению, по сути, не нова для Армии обороны Израиля. Скорее, она представляет собой расширение и усиление так называемой доктрины Дахия, разработанной во время конфликта с «Хезболлой» в 2006 году.

Основная логика заключается в том, что, применяя несоразмерную силу против гражданских объектов, Израиль стремится заставить население оказать давление на партизанскую группировку, чтобы остановить её наступление. В то же время это служило пропагандистским инструментом, нацеленным на израильскую общественность с целью подчеркнуть масштабный ущерб, нанесённый противнику, и продемонстрировать достижения военных, чтобы привлечь как можно больше лайков и репостов и завоевать сердца и умы людей.

Однако в отношении целей по уничтожению энергообъектов и разрушению гражданской инфраструктуры в Газе после 7 октября 2023 года наблюдается принципиально новая динамика. Существует мнение, что население Газы по своей сути причастно к действиям ХАМАС, что делает невозможным разделение этих двух организаций.

В статье для Wall Street Journal пресс-секретарь Армии обороны Израиля контр-адмирал Даниэль Хагари утверждает, что «ХАМАС систематически размещает свою террористическую инфраструктуру в жилых районах Газы в рамках своей стратегии «живого щита».

Точно так же бывший сотрудник разведки отметил, что «ХАМАС повсюду в Газе; нет ни одного здания, в котором не было бы чего-то от ХАМАС, так что если вы хотите найти способ превратить высотное здание в мишень, вы сможете это сделать».

Как недвусмысленно заявил президент Израиля Исаак Герцог, «ответственна за это целая нация». Эта логика «встраивания» объясняет беспрецедентное насилие, происходящее на местах, — ситуацию, которую Генеральный секретарь ООН Гутерриш назвал «коллективным наказанием палестинского народа».

Палестинцы подвергались оскорблениям, унижениям и бесчеловечным высказываниям в официальной риторике Израиля. Министр обороны Израиля Йоав Галант печально известный своими заявлениями ещё 10 октября 2023 года сказал: «Мы сражаемся с человеческими животными и действуем соответственно».

Однако эти унизительные высказывания не новы. Арабы подобны «тараканам в бутылке, накачанным наркотиками», — заявил бывший начальник штаба израильской армии генерал Рафаэль Эйтан во время слушаний в израильском парламентском комитете в 1983 году.

Такие сравнения могут вызвать первобытный порыв к насилию, похожий на инстинктивную реакцию при столкновении с нашествием паразитов, побуждающую к попыткам устранить предполагаемую угрозу. От тараканов до «микробов», как называли противников «красные кхмеры-коммуняки», — история геноцида изобилует бесчеловечными выражениями, которые подстрекают к жестокому изгнанию и полному уничтожению тех, на кого направлена такая риторика.

Признание колониального происхождения этой насильственной динамики крайне важно, как подчёркивают врачи Гассан Абу Ситта и Рупа Марья в своей статье «Глубокая медицина: возвращение палестинцам человеческого облика». Именование, навешивание ярлыков и категоризация являются неотъемлемой частью процесса «инаковости», который нормализирует насилие, особенно когда последнее метафорически ассоциируется с уничтожением вируса или инфекции.

Палестинцев называют не только «человеческими животными». Их также изображали как невосприимчивых к травмам, как людей, «чьи тела недостаточно современны или цивилизованны, чтобы испытывать травмы», привыкших жить в «культуре смерти», как отмечает Ламия Могни.

Травмы, пережитые палестинцами, часто игнорируются, даже несмотря на то, что они широко задокументированы в виде множества визуальных образов, демонстрирующих насилие со стороны поселенцев, захват земель и различные формы жестокого обращения с местным населением, с которыми оно сталкивается ежедневно.

Однако, как утверждает Энтони Лёвенштейн в своей тщательно проработанной работе «Палестинская лаборатория: как Израиль экспортирует технологии оккупации по всему миру», освещение в СМИ израильских зверств в отношении палестинцев не находит отклика у тех, кто воспринимает палестинцев не как людей, а скорее как «расовую группу, заслуживающую наказания и смерти».

Использование технологических инструментов для дальнейшего усиления процесса дегуманизации началось задолго до нынешнего конфликта. С 2018 года Израиль активно применяет инструменты на базе искусственного интеллекта в целях безопасности на оккупированном Западном берегу. Например, система распознавания лиц под названием «Красный волк» использовалась для незаконного сбора и классификации биометрических данных палестинского населения, что позволяло отслеживать, контролировать и ограничивать их передвижения.

Этот инструмент наблюдения, замаскированный под привычное и удобное мобильное приложение, использовался израильскими военными на контрольно-пропускных пунктах, часто без ведома палестинских граждан, ожидавших в очереди. Эта практика соответствует тому, что Amnesty International назвала «автоматизированным апартеидом».

Гуманизация С помощью Технологий

Напротив, израильские компании использовали технологию искусственного интеллекта, чтобы (вос)человечить израильских гражданских лиц, удерживаемых ХАМАС, в надежде заручиться поддержкой своего дела на мировой арене. В трогательном видео, переведённом на несколько языков, 3-летняя светловолосая девочка зовёт свою маму.

«Почему мы здесь?» — спрашивает она, глядя прямо в камеру. «Я хочу домой», — добавляет она, обращаясь прямо к зрителям. «Я скучаю по своим друзьям», — вторит ей голос мальчика. «Я скучаю по футболу, мам. Думают ли обо мне вообще мои друзья?». Заключительная сцена особенно трогательна: «Я продолжаю твердить себе, что это просто сон, — говорит он, — но он такой плохой.» — наконец говорит он, глядя в камеру своими невинными, но печальными глазами. «Кому-то в Газе нужно поговорить с тобой», — гласит первая подпись к обоим видео.

В фильме показаны Яэль и Наве Шохам, похищенные ХАМАС 7 октября 2023 года и удерживаемые в плену с тех пор. В заключительных титрах подчёркивается: «Чтобы услышать их голоса, нам пришлось использовать искусственный интеллект», — что косвенно намекает на то, что единственными голосами, которые считаются легитимными в Газе, являются голоса израильских заложников. Это лишает местное палестинское население права голоса и полностью исключает его из повествования.

Ширан Мламдовский Сомеч, основательница Generative AI for Good, израильской компании, стоящей за кампанией «Будь их голосом», подчеркивает потенциал технологии машинного обучения «для осуществления реальных социальных изменений». В частности, она утверждает, что генеративный ИИ «может развивать эмпатию и предлагать человекоподобный опыт… чтобы улучшать и даже спасать жизни».

На сайте компании представлены и другие инициативы, соответствующие этому подходу, такие как «Послушай мой голос», в рамках которой голоса жертв домашнего насилия, записанные с помощью ИИ, выступают за социальные изменения из загробного мира, или «Марш живых», в рамках которого ИИ возвращает к жизни жертв Холокоста, позволяя им делиться своими историями сопротивления нацизму, чтобы вдохновить будущие поколения.

Здесь сочетание архивных кадров с синтетическими изображениями вдохнуло новую жизнь в историческую документацию, наполнив повествование современным звучанием. Голоса выживших в Холокосте, которых на сайте компании с гордостью называют «борцами», звучат в тоне, подчёркивающем их сопротивление. Их прямой взгляд в камеру и акцент на их действиях, направленных на сопротивление, вызывают более глубокое чувство сопереживания и пробуждают в нас человечность и чувство достоинства в их начинаниях.

Кроме того, включение в видео женщины-военнослужащей ещё больше укрепляет эту идею, косвенно усиливая представление об Израиле как о оплоте справедливости и равенства. Это перекликается со стратегией ЦАХАЛ в социальных сетях, которая до нынешней войны в Газе была направлена на то, чтобы ассоциировать образ правительства с (воспринимаемыми как) западными идеалами, такими как феминизм и инклюзивность ЛГБТКИА+.

Кампания «Будь их голосом» вписывается в эту идеологическую структуру как своим визуальным стилем, так и посылом. Она призывает международное сообщество возвысить голоса тех, кто молчит, особенно детей, удерживаемых в плену ХАМАС. В отличие от Евангелия и его внутреннего механизма дегуманизации и убийств, здесь ИИ используется как изобретательная платформа для пробуждения сочувствия у зрителей. Прямой призыв, исходящий от детских глаз, созданных с помощью ИИ, призван вызвать сострадание с целью заручиться общественной поддержкой их бедственного положения.

Единственные голоса, которые мы слышим из Газы, принадлежат израильским детям, созданным искусственным интеллектом. Это ещё больше отдаляет палестинцев от повествования и косвенно поддерживает мнение о том, что этот район находится под контролем исключительно ХАМАС и изображается как царство смерти и насилия, лишённое людей и человечности. Подлинные голоса жителей Газы поразительно отсутствуют даже в синтетическом мире этого, казалось бы, доброжелательного генеративного ИИ «во имя добра».

Постскриптум

Я намеревался проверить предвзятость ИИ в этой теме. Когда я ввёл этот текст для проверки, ChatGPT отнёс его к категории «ИИ, расширяющий возможности Газы». Кроме того, он предложил заменить такие выражения, как «убийство людей», на «жертвы среди людей», а «уничтожение гражданских объектов и гражданских лиц» — на «гибель гражданских лиц».

Донателла Делла Рэтта

Донателла Делла Ратта преподает коммуникацию и медиаисследования в Университете Джона Кэбота в Риме. Она получила докторскую степень в Копенгагенском университете и ранее была сотрудником Центра интернета и общества Беркмана-Кляйна при Гарвардском университете. Она является автором книги «Стрельба по революции: визуальные медиа и война в Сирии (Pluto Press, 2018).

Эта статья была впервые опубликована на сайте UntoldMag по адресу: https://untoldmag.org/category/dossiers/a-i-from-a-counter-hegemonic-perspective/

Кто бы сомневался...

6 июня 2023 года в Херсонской области произошла страшная катастрофа. Из-за разрушения ВСУ плотины Каховской ГЭС началось масштабное затопление.В зоне затопления оказались десятки населе...

Начинается ответный удар Ирана: десятки истребителей НАТО подняты в воздух, приказ – всем пройти в укрытия
  • Hook
  • Вчера 20:57
  • В топе

США и их союзники по Североатлантическому альянсу в срочном порядке подняли в воздух свои истребители для отражения ответного удара Ирана. Сообщается, что ракеты полетят по целям на Ближнем Восток...