Google снимает запрет: теперь их ИИ можно использовать в военных целях.

1 171

Alphabet, материнская компания Google, недавно внесла серьёзные изменения в свою этическую хартию, отменив некоторые обещания, данные несколько лет назад, в частности запрет на использование моделей искусственного интеллекта в военных целях.

В 2018 году более 3 000 сотрудников Google протестовали против участия компании в Project Maven, программе военных исследований беспилотников, осуществляемой Пентагоном. Они опасались, что это сотрудничество представляет собой первый шаг к использованию ИИ в смертоносных целях.

Столкнувшись с внутренним давлением, Google опубликовала принципы, регулирующие разработку искусственного интеллекта. В частности, в документе говорилось, что компания обязуется не разрабатывать технологии, которые могут нанести глобальный вред, если только выгода не перевешивает риск; оружие или технологии, которые могут причинить вред людям; а также системы, использующие данные в целях слежки.

В обновлённом документе, опубликованном 4 января этого года, этот раздел исчез. Теперь в пересмотренном документе основное внимание уделяется проведению строгих испытаний для минимизации рисков, связанных с продукцией компании.

Меняющийся контекст.

В качестве обоснования этого изменения Google утверждает, что технологическая база с 2018 года претерпела значительные изменения. В статье, подписанной Джеймсом Маньикой, вице-президентом по исследованиям, и Демисом Хассабисом, генеральным директором DeepMind, руководители объясняют, что ИИ прошёл путь «от нишевой темы лабораторных исследований до такой же повсеместной технологии, как мобильные телефоны и сам интернет». Однако они прямо не упоминают о снятии прежних обязательств, предпочитая ссылаться на простое обновление руководящих принципов.

Группа также обосновывает эти изменения необходимостью для демократических стран сохранять своё технологическое лидерство. «Мы считаем, что демократические страны должны возглавить разработку ИИ, руководствуясь такими фундаментальными ценностями, как свобода, равенство и уважение прав человека», — заявляют они, добавляя, что «компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и укрепляет национальную безопасность».

Способ снять ограничения?

Некоторые наблюдатели рассматривают эту поправку как стратегию устранения барьеров для доступа на быстро растущий рынок. В напряжённом геополитическом контексте бюджеты, выделяемые на исследования и разработку военного ИИ, резко возрастают.

В 2023 году Google уже пришлось столкнуться с внутренними разногласиями вокруг проекта облачных вычислений и искусственного интеллекта, предназначенного для правительств и израильской армии. Пока компания пыталась снять напряжённость, её основные конкуренты укрепляли свои связи с армией. В частности, Microsoft и Amazon подписали контракт с Пентагоном в рамках проекта Joint Warfighter Cloud Capability - защищённого облака для вооружённых сил США.

Этот разворот произошёл всего через несколько дней после того, как Дональд Трамп официально вернулся на пост президента США. Сразу после инаугурации новый президент смягчил правила, отменив указ, изданный его предшественником и регулирующий безопасность ИИ. Отныне крупнейшие технологические компании, руководители которых недавно сблизились с Трампом, больше не обязаны публиковать результаты своих тестов, если их продукция представляет высокий риск для национальной безопасности или здоровья населения.

Источник: https://new-science.ru/google-...

В.К. Вот, немного подробней об этом.

Google тихо отказалась от обещания не создавать опасный ИИ.

Теперь компания готова разрабатывать технологии, способные убивать людей.

Google исключила из своих принципов использования искусственного интеллекта пункт, в котором содержалось обещание избегать применения технологии в потенциально вредных целях, включая разработку оружия.

Ранее в документах компании существовал раздел под названием «Применения ИИ, которые мы не будем развивать», где перечислялись «технологии, которые причиняют или могут причинить общий вред», включая оружие. Однако, как сообщает Bloomberg, этот текст больше не представлен на странице.

В ответ на запрос о комментарии Google сослалась на блог , опубликованный во вторник. В нём старший вице-президент Google Джеймс Маника и глава Google DeepMind Демис Хассабис заявили: «Мы верим, что демократии должны лидировать в разработке ИИ, опираясь на такие ценности, как свобода, равенство и уважение прав человека».

Google также прокомментировала изменения для TechCrunch, сославшись на новый блог об «ответственном ИИ». В нем говорится: «Мы верим, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создавать ИИ, который защищает людей, способствует глобальному развитию и поддерживает национальную безопасность».

Маргарет Митчелл, бывший сопредседатель команды Google по этике ИИ, а ныне главный специалист по этике в стартапе Hugging Face, считает, что это изменение может повлиять на работу компании. «Удаление этого пункта стирает достижения многих специалистов и активистов в сфере этики ИИ. Это также может означать, что Google, вероятно, теперь готова разрабатывать технологии, способные убивать людей», — заявила она.

Экс-глава направления «Ответственный ИИ» в Google Cloud Трейси Пиццо Фрей отметила, что принципы ИИ помогали её команде анализировать свою работу и повышать качество продуктов. «Ответственный ИИ создаёт доверие, а без доверия невозможно добиться успеха», — сказала она.

В последние годы Google подвергался критике за сотрудничество с военными США и Израиля, поставляя им облачные вычислительные мощности. Хотя компания заявляет, что её технологии не используются для нанесения вреда, глава Пентагона по ИИ недавно сообщил TechCrunch, что модели некоторых компаний уже ускоряют процесс принятия решений в «цепочке уничтожения» американской армии.

Изменение политики Google совпадает с общим трендом среди крупных технологических компаний. В январе Meta* свернула часть инициатив по диверсификации персонала, отменив обязательные интервью для кандидатов из недостаточно представленных групп. В тот же период Amazon прекратил ряд программ по инклюзивности, назвав их устаревшими.

Внутри Google споры о балансе между этическими принципами и конкурентной гонкой ведутся давно. С момента выхода ChatGPT в 2022 году компания испытывает давление и стремится сохранить лидерство в ИИ. В 2023 году некоторые сотрудники выражали опасения, что ради конкуренции Google идёт на компромиссы в этических вопросах.

* Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ.

Подробнее: https://www.securitylab.ru/new...

В.К. Вот честно, смешно это всё читать, когда аналогичные ИИ технологии уже давно используются для убийства, и не только, людей. Только раньше аналогичные алгоритмы реализовались по-иному, несколько упрощённо и именовалось это толерантно, правда, без использования самого этого термина, типа, автоматика и телемеханика, кибернетика. И создавалось это, конечно, на благо людей. Только вот это было малопонятно и самим людям, и инвесторам. А вот ИИ - это вам уже не хухры-мухры, а целый ИНТЕЛЛЕКТ, правда, никто не знает, что оно такое этот интеллект, но вот бабки потекли рекой на развитие этих технологий. А по сути, это всё те же яйца, только окутанные туманом цифровых технологий, требующих гораздо больших вложений, но и создающих всё больше и больше проблем и не только самим людям. Ну так чего? Прогресс же.

Служилые люди Засечных черт России

Служилые люди Государства Российского века XVII (Засечные черты от поляков, крымчаков, ногаев и османов), века XVIII (Карл XII и его "сборная" Европы), века XIX (Наполеон и "сборная" Ев...

Про Глинище на Медведице и его обитателей

ПРО ГЛИНИЩЕ НА МЕДВЕДИЦЕ И ЕГО ОБИТАТЕЛЕЙ "Игорь Растеряев — наше национальное достояние. Он сам по себе — целое явление русской культуры. Как когда-то Василий Шукшин, Виктор Астаф...

Завидное постоянство наших врагов

В эпоху мира и стабильности высоко ценится предсказуемость политика. Она (предсказуемость) помогает эти мир и стабильность сохранять.В эпохи великих потрясений, к которым, безусловно, о...

Обсудить
  • Не пугайте лохов . Термин " ИИ " был придуман мировыми кукловодами как ширма , чтобы напакостив , можно было заявить : "Это не мы виноваты , это ИИ виноват " . Якобы у ИИ есть некие человеческие качества--корысть , злоба и т.д. А это всего лишь программа , написанная человеком . Хоть и с огромной базой данных .