Мир должен обратить на это внимание.

0 495

В последние несколько недель в США развернулась масштабная этическая дискуссия, касающаяся самого будущего войны.

Конфликт представляет собой беспрецедентное противостояние между Пентагоном и компанией Anthropic, занимающейся разработкой искусственного интеллекта (создателями Клода).

Компания Anthropic заключила с Пентагоном контракт, который включал в себя строгие «красные линии»: их ИИ не мог использоваться для массового наблюдения за гражданами, а также для разработки полностью автономного оружия.

Однако, поскольку контракт уже вступил в силу, Пентагон потребовал отмены этих этических гарантий. Когда компания Anthropic отказалась, министр Пит Хегсет объявил ее «угрозой для цепочки поставок в сфере национальной безопасности», а президент Трамп приказал всем федеральным ведомствам прекратить сотрудничество с компанией Claude.

Правительство оперативно приняло меры по замене роли компании Anthropic компаниями OpenAI и xAI.

Хотя это новые контракты, они выполняют те же стратегические функции, но с одним важным отличием: по имеющимся данным, они договорились действовать в соответствии с существующей политикой Пентагона, в частности, с Директивой 3000.09.

Почему это поворотный момент? Потому что Директива 3000.09 не запрещает полностью автономное смертоносное оружие.

Это допускает «надлежащий уровень человеческого суждения», расплывчатый термин, который военные интерпретируют как разрешение ИИ самостоятельно применять силу после того, как миссия запрограммирована. Если бы человек запрограммировал ИИ на убийство, это было бы нормально.

Принимая эти условия, OpenAI и xAI фактически устраняют этические барьеры, за сохранение которых боролась компания Anthropic.

Компания Anthropic подала в суд на правительство США, обвиняя его в незаконных преследованиях за свою этическую позицию. Этот шаг поддержала компания Microsoft, которая предупреждает об опасном прецеденте.

Речь идёт не только о программном обеспечении; это означает, что ИИ вскоре сможет самостоятельно принимать решения, от которых зависит жизнь и смерть.

Мы ежедневно видим ошибки, которые допускает искусственный интеллект; эти системы совершенно не готовы решать судьбу человеческой жизни.

Мировое сообщество должно внимательно следить за этим вопросом.

****

P/S

Пентагон заигрался с ИИ, к слову в 2022 году, до начала СВО, ИИ Пентагона, делал прогнозы - расчеты, и показывал что Украина сможет победить Россию за 3-4 недели..

- Что на самом деле вышло - мы все видим.

Так же, вояки Пентагона, использовали ИИ для просчета войны с Ираном. За три дня не получилось !!

- Ранее Palantir (ИИ) Алекса Карпа и Питера Тиля, использовали в Газе евреи, что бы выявлять цели и устранять их. Под пули и бомбы с ракетами, попали простые мирные жители, которых ИИ определили как цели... Вот так вот.

Закройте Шереметьево! (Шереметьевский цикл)

Эпизод 1: Эпизод 2: Как там у пана Царева с Подолякой? Если даже среди въезжающих в Россию окажется сколько-то украинских террористов, не случится ничего стр...

Подземная армада: как Иран превратил перемирие в триумф военной логистики — генерал Мусави

Недавняя публикация Корпусом стражей исламской революции (КСИР) эксклюзивных кадров из подземных городов-тоннелей произвела эффект разорвавшейся бомбы в мировых аналитических кругах. На...