Кто стоит за генерацией AI-страхов?

9 118

"Спешка Пентагона по развертыванию оружия с поддержкой искусственного интеллекта убьет нас всех", - статья с таким заголовком явно эпатирует впечатлительных обывателей для которых идиома "искусственный интеллект" сама по себе страшилка уровня "чужие против нас". Кто-то же подсовывает журналистам подобные медиа поводы, дающие возможность их работодателям из ряда СМИ, окучивать устрашающим нарративом рекламоёмкую публику. Да-да страхи хорошо продаются и заходят в подсознание к потенциальным пугливым потребителям, вместе с рекламой потребительских товаров, якобы годных в надвигающееся время угроз со стороны технологий искусственного интеллекта. Всё по классике, если капиталист видит возможность заработать на страхах, он зарабатывает наплевав на этику с высоты своих капиталов.

Однако, "нынче не то что давече" (С), капиталист нанимает специальных людей которые так заворачивают смысловую подачу страхов, как будто сам этот хищничающий капиталист, как отец родной беспокоится о тех чьё сознание атакуют устрашающими инфоповодами. Вот несколько цитат из этой статьи про Пентагон: "Ученые и дипломаты предупреждают о возможных катастрофических последствиях неправильного использования искусственного интеллекта. 

• Риск использования сверхразума имеет "экзистенциальное" измерение, которое может привести к краху человеческой цивилизации или вымиранию человечества.

• Высокопоставленные чиновники в области искусственного интеллекта считают, что сверхразум можно и нужно развивать, при условии установления адекватных мер предосторожности.

• Соединенные Штаты полны решимости внедрить политику и создать технический потенциал для ответственной разработки и использования искусственного интеллекта военными.

• Многие страны стремятся к юридически обязательному документу, устанавливающему строгие ограничения на использование автономных систем вооружения или полностью запрещающему их". 

Таким образом на глазах обывателей, которым адресован этот пугающий нарратив, контекстно проталкивается якобы имеющая место эпохальная битва между радетелями обывателей в лице ученых и дипломатов против воинствующих политиканов и заказчиков современных вооружений с перспективными информационными технологиями. В число которых в прошлом году буквально ворвались технологии искусственных нейросетей (ИНС) машинного обучения на платформе  “больших языковых моделей” (БЯМ). За этим начинанием, как известно стоит OpenAI — технологический стартап из Сан-Франциско, со своей теперь уже чрезвычайно популярной компьютерной программой ChatGPT (чат-джипити). О настоящей цели OpenAI зарабатывать на своем творении путем внедрения его на огромное число различных носителей начиная от серверов в дата-центрах заканчивая смартфонами в кармане каждого обывателя, на cont.ws рассказано в предыдущей статье по данной тематике.

Так что на самом деле между потребителями информационных технологий и зарабатывающих на этом капиталистами, стоят создатели искусственных информационных продуктов, которые собственно и являются предметами потребления. Таким образом по сути вопроса вынесенного в заголовок сегодняшней статьи надо особо отметить роль лидера технологического стартапа OpenAI, его председателя совета директоров - Сэма Альтмана. Это он автор идеологем о сверхразуме на основе БЯМ, сначала на слушаниях в Сенате США 16 мая 2023 нагнал страхов сенаторам, про то что широкое внедрение того же чат-джипити "может пойти не так как планировалось", по сути снимая с себя любимого возможные обвинения о безответственности. И следом Сэм Альтман создал коллаборацию подписантов письма опубликованного Центром безопасности искусственного интеллекта 30 мая 2023, -  "Заявление о риске искусственного интеллекта". Где немало не сомневаясь заявлено: "Снижение риска вымирания из-за искусственного интеллекта должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война". Так вот не стесняясь отсылают внимание публики к недавно пережитым страхам Ковид-пандемии 2019-2020 годов и конечно же ясно осознаваемыми угрозами атомных взрывов.

Алгоритм нагнетания страхов составная часть борьбы за бюджет Пентагона, который понятное дело утверждается в Сенате США, где отдельной статьёй может быть предусмотрены средства на развитие технологий ИНС.  Этот же алгоритм в значительной мере  определяет взгляды высокопоставленных чиновников в Государственном департаменте и Министерстве обороны США, которые со своей стороны утверждают, что искусственный интеллект может и должен использоваться для управления будущими системами вооружений на подконтрольном им уровне. Имеется ввиду что англоязычный чат-джипити будет использоваться Госдепом для составления документов международного уровня и будущий пресс-секретарь будет лишь суфлёром на брифингах. Вот так бесхитростно перехватывается государственная повестка и реальна власть попадает в зависимость "ответственных" создателей алгоритмов якобы грядущего века  искусственного разума. 


Невоенный анализ-60. Надлом. 27 апреля 2024

Традиционный дисклеймер: Я не военный, не анонимный телеграмщик, не Цицерон, тусовки от меня в истерике, не учу Генштаб воевать, генералов не увольняю, в «милитари порно» не снимаюсь, под ...

Раздача паспортов и украинская "верность"

После того, как Арестович сообщил, что не менее миллиона, из 10 миллионов украинцев в Европе, возьмут российские паспорта, если Путин им даст, российский сегмент интернета охватила диск...

Обсудить
  • В среднем, 90% людей в каждой стране отказываются от развития. Предпочитают оставаться на 5 летнем уровне развития. Туловища большие, а соображалка детская.
  • В главной поддержал уже. Сейчас поделюсь.
  • Пока мы все ещё люди, до тех пор место ИИ только во вспомогательных системах, без права принятия окончательного решения! Иначе-вымрем! :smirk: