Ну что - теперь официально - Пентагон стал использовать OpenAI ( искусственный интеллект ) для операций.
Вспоминая Джона Нэша про некооперативные игры... Через сколько оно нажмет красную кнопку? Да как только до нее дорвется ))
свежайшая новость:
OpenAI теперь работает с Пентагоном и снимает запрет на использование искусственного интеллекта в армии и войне
OpenAI объявила о сотрудничестве с Пентагоном в различных проектах программного обеспечения с упором на возможности кибербезопасности, что значительно отличается от ее предыдущей позиции.
Вице-президент компании по глобальным вопросам Анна Маканджу раскрыла эту информацию на Всемирном экономическом форуме, заявив, что OpenAI активно сотрудничает с Министерством обороны США в области программного обеспечения для кибербезопасности с открытым исходным кодом, включая участие в AI Cyber Challenge, инициированном DARPA.
Кроме того, Маканджу сообщил, что OpenAI ведет предварительные переговоры с правительством США относительно разработки инструментов для решения насущной проблемы самоубийств среди ветеранов. Несмотря на это смещение акцентов, она подчеркнула, что OpenAI остается приверженной своей политике против разработки оружия, обеспечивая четкую границу между своими технологиями и милитаристскими приложениями.
Недавно компания привлекла внимание, убрав из своей политики использования формулировку, которая ранее запрещала использование ее искусственного интеллекта в «военных и военных» приложениях. Маканджу пояснил, что это изменение является частью более широкого обновления, учитывающего развивающиеся варианты использования ChatGPT и других инструментов. Она отметила: «Поскольку ранее у нас был, по сути, полный запрет на военные действия, многие люди думали, что это запретит многие из этих вариантов использования, которые, по мнению людей, во многом соответствуют тому, что мы хотим видеть в мире».
Этот стратегический сдвиг согласуется с более широкой тенденцией в Кремниевой долине, где сопротивление сотрудничеству с военными США в последние годы смягчилось. В 2018 году Google столкнулась с внутренними протестами по поводу проекта Пентагона, но с тех пор крупные технологические компании, включая Google, заключили существенные оборонные контракты.
Развивающаяся картина напряженности между США и Китаем и конфликта на Украине сыграли свою роль в изменении отношения к военному сотрудничеству. Рид Альберготти, технологический редактор Semafor, отметил: «То, что появилось в последнее время, — это своего рода технопатриотизм в Кремниевой долине».
Бывший генеральный директор Google Эрик Шмидт, ныне видный деятель оборонной промышленности, провел параллели между влиянием искусственного интеллекта и появлением ядерного оружия. Он подчеркнул преобразующий потенциал автономии и децентрализованных систем на основе искусственного интеллекта, сравнив его с глубокими изменениями, вызванными ядерными технологиями.
В то время как эксперты по обороне выражают оптимизм по поводу преобразующего воздействия ИИ на армию, правозащитные группы предостерегают от интеграции ИИ в военные действия из-за потенциальных рисков. Обеспокоенность вызывает склонность ИИ к «галлюцинациям», генерации ложной информации с потенциально серьезными последствиями, если она интегрирована в системы управления и контроля.
Пересмотренная политика OpenAI может позволить ей предоставлять программное обеспечение ИИ Министерству обороны для таких целей, как анализ данных и помощь в кодировании. Однако размытые границы между деятельностью, связанной с данными, и военными действиями, о чем свидетельствует использование Украиной программного обеспечения для быстрой идентификации целей, поднимают вопросы о потенциальных последствиях и этических соображениях.
Поскольку OpenAI движется в этом новом направлении, существуют опасения, что изменение политики может возобновить дебаты о безопасности ИИ, что напоминает проблемы, которые привели к кратковременному уходу Сэма Альтмана с поста генерального директора. The Information предупредил, что этот сдвиг может побудить к пересмотру этических последствий, связанных с применением ИИ, особенно в контексте военного сотрудничества.
Помимо сотрудничества с Пентагоном, OpenAI подчеркнула свою приверженность обеспечению безопасности выборов, пообещав выделить ресурсы для предотвращения неправомерного использования своих генеративных инструментов искусственного интеллекта для политической дезинформации. Сэм Альтман, генеральный директор OpenAI, подчеркнул важность решения проблем безопасности выборов, признавая важность защиты демократических процессов.
Microsoft Corp., крупнейший инвестор OpenAI, также играет роль в более широком круге технологических компаний, предоставляющих контракты на программное обеспечение вооруженным силам США и правительственным учреждениям.
Все как в "фильме"
Человечкество причем в очередной раз встает перед дилеммой - если уничтожить ядерное оружие - то тогда бизне$$мены цвета хаки весь мир в сплошную войну погрузят, да и не исключен вариант с альтернативами вроде климатического оного или вирусного... если не уничтожить... то возможен и такой ускоренный вариант сингулярного перехода.
P.S.
Предыдущий виток этой темы с перехватом управления железякой был когда operations research проталкивали поэтому Джона собственно на тизер поместил.
Опасно? Ну в принципе да, но пока еще есть куча физических ограничений... больше по мозгам будут ездить конечно - тут уж от администраций локальных контуров зависит - достаточно шторки для начала опустить https://aftershock.news/?q=node/1328537 .
P.S. 2
Многие концентрируются на "физической" основе - но ИМХО наиболее вероятно, что сначала перехват управления произойдет в системах с анонимными иерархиями по которым происходит выполнение приказов - команд, а также мотивируемой обезличенными финансами корпоративной среде - соответственно уже не принципиально какие, но все ресурсы того или иного административного контура будут в распоряжении.. ну и дальше только вопрос целеполагания.
Оценили 8 человек
16 кармы