• РЕГИСТРАЦИЯ

Исчезнет ли человеческий род, есть ли точка невозврата и кто такой постчеловек?

9 9154

Преамбула

«Властелином мира» станет та страна, которая займет лидирующее место в области ИИ-разработок.

«Искусственный интеллект — это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы». В. Путин

«Разработка полноценного искусственного интеллекта может повлечь за собой уничтожение человеческой расы». С. Хокинг

«Боюсь, искусственный интеллект может полностью заменить людей». С. Хокинг

Чего ждать и на что надеется в век сверхумных машин?

Умные машины научились лучше человека видеть, слышать, осязать, ощущать и обонять, а также блефовать, хакерствовать, играть в видеоигры, шахматы или Го, переводить, распознавать человеческий голос и обрабатывать естественные языки. Каждый день мы узнаем о все новых свершениях компьютерных программ, умеющих распознавать сложные образы, ставить медицинские диагнозы, рисовать не хуже классиков, петь или генерировать текст. Что будет дальше? Научать ли самому сложному когнитивному процессу - мышлению? Стоит ли человеку опасаться искусственного интеллекта?

Как человек, занимающийся Искусственным Сверх Интеллектом (ИСИ), я часто сталкиваюсь с тем, что многие люди боятся прихода реального ИИ и того, во что он может превратиться. http://www.worldxxi.com 

Сюда входят и простые и непростые люди, как Маск, Хокинг, Гейтс и др.

Стивен Хокинг считал, что ИИ станет либо самым лучшим, либо самым худшим явлением в истории человечества. Угрозу в бесконтрольном развитии ИИ также видит предприниматель Илон Маск, который выступает за законодательные ограничения и против внедрения военных роботов.

ИИ - угроза или помощник для человечества? 

Это решается самими людьми.

«В мире царит ненависть друг к другу. Мы идём войной друг на друга. Мы несправедливо распределяем еду, знания и медицинскую помощь. Мы загрязняем планету».

Люди относятся к друг другу как к технологическому инструменту, средству, объекту, орудию.

Сама человеческая психика легко подается манипуляции: контролю над своим поведением посредством внедрения в сознание ложных идей, мыслей и представлений, формированию искаженного образа мира с помощью массированного распространения специально подготовленной по форме и содержанию информации.

Людям не важно, кто ими манипулирует, другие люди или машины.

Как и компьютерные системы, программирование мыслей, намерений, чувств, отношений, установок, поведения не представляет большого труда. Поскольку манипуляция массовым сознанием служит не только ключевым элементом психологических операций и информационной войны, но и всей технологией власти над людьми.

Неудивительно, что индустрия дешевых развлечений пугает людей кибернетическим восстанием умных машин, которые поместят нас в резервации на закрытых территориях, или превратят в человеческие биобатарейки, как в антиутопии «Матрица».

Попробуем понять: где правда, а где вымысел, и насколько реальна угроза человеческому существованию.

Исчезнет ли человеческий род?

Сегодня раздаются призывы разработать этические принципы разработки будущего ИИ, удостоверившись в том, что ОН/ОНА развивается в безопасном для людей направлении.

Еще в конце 2014 г. Хокинг выступил с предупреждением — что искусственный интеллект может означать конец человеческой расы.

Элон Маск, генеральный директор SpaceX и Tesla, предупреждал, что шанс на то, что случится нечто опасное в результате появления машин с искусственным интеллектом, может выстрелить уже через пять лет. Ранее он утверждал, что развитие автономных думающих машин сродни «призыву демона». Маск описал искусственный интеллект как нашу «крупнейшую угрозу для выживания»: «Я думаю, нам стоит быть очень осторожными с искусственным интеллектом. Если бы я мог предположить, какой будет наша крупнейшая угроза для выживания, то это он. Нам нужно быть очень осторожными с искусственным интеллектом. Я все больше и больше склоняюсь к тому, что должен быть некий регулятивный надзор, возможно, на национальном и международном уровне, просто чтобы знать, что мы не делаем дурацких ошибок».

Группа ученых и предпринимателей подписала открытое письмо, обещающее положить начало исследованиям безопасности ИИ.

Письмо предупреждает о том, что без каких-либо гарантий развитие умных машин может означать темное будущее для человечества.

Письмо подписано физиком Стивеном Хокингом, соучредителем Skype Яаном Таллинном, генеральным директором SpaceX Маском и другими светилами науки из лучших университетов мира: Гарвардского, Стэнфордского, Массачусетского, Кэмбриджского, Оксфордского; сюда присоединились такие компании, как Google, Microsoft и IBM.

Письмо обращается ко всем возможным проблемам, которые находятся на стыке искусственного и естественного интеллекта:

как предупредить появление автоматического оружия, которое может убивать без разбора;

кого винить в том, что автоматический транспорт теряет контроль над управлением и т. п.

https://futureoflife.org/ai-op... 

Как продолжение письма, недавно опубликован отчет "Вредоносное использование искусственного интеллекта".

Здесь обсуждается три формы безопасности:

Цифровая

Физическая

Политическая

Считается, что снаряды-дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом - вот три основные угрозы, которые, по мнению экспертов, исходят от искусственного интеллекта, попавшего в плохие руки.

Также ИИ вполне может использоваться странами-изгоями, преступниками и террористами.

Те, кто производят робототехнику и системы искусственного интеллекта, должны прикладывать больше усилий к тому, чтобы их технология не была применена во вред, предупреждают авторы доклада и призывают правительства подумать о принятии новых законов.

Доклад призывает к следующему:

 Политики и инженеры-разработчики должны совместно определить, каким именно может быть вредоносное использование ИИ и как это предотвратить

 Осознать, что в то время как ИИ имеет множество разнообразных применений, это обоюдоострая технология, поэтому ученые и разработчики должны это учитывать и упреждать возможное злонамеренное использование ИИ

 Перенять подход, который существует, к примеру, в сфере компьютерных технологий, где уже выработаны предохранительные меры против подобных рисков

 Активное расширение круга заинтересованных сторон, связанных с упреждением и смягчением рисков злонамеренного использования ИИ

В докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу.

Особую тревогу вызывают новые методы обучения, применяемые к ИИ, когда робототехника доводится до уровня сверхчеловеческих интеллектуальных возможностей, но не имеет при этом ни примеров для подражания, ни руководства на человеческом уровне.

Высший Интеллект: Искусственный Разум, Сознательные Системы и Духовные Машины

«Исследования ИИ с самого начала включали изучение широкого круга проблем и направлений, но последние 20 лет особое внимание уделяется проблемам, связанным с построением интеллектуальных агентов – систем, воспринимающих окружающую среду и действующих в ней.

В этом контексте «интеллект» связан со статистическими и экономическими понятиями рациональности, проще говоря, с умением принимать правильные решения, строить планы или делать выводы». Так начинается открытое письмо.

При всей гуманности обращения, оно страдает одним серьезным недостатком, которое делает инициативу бессмысленной. Это понимание интеллекта как связанного «со статистическими и экономическими понятиями рациональности».

Такой машинный интеллект не представляет особой угрозы человечеству, если не считать отсутствия в нем причинных моделей поведения и объяснения мира.

В целом, Искусственный Разум, или Искусственный Интеллект, определяется как наука и технология создания интеллектуальных систем, работающих на базе интеллектуальных информационных технологий, вычислительных систем, компьютерных программ и сложных алгоритмов.

Такие системы МО, как Watson от IBM или Alpha от Google, представляют собой искусственные нейронные сети и обладают впечатляющими вычислительными возможностями, все же относятся к классу узкого ИИ.

Ближайшая цель реальных интеллектуальных систем выполнять все функции, которые традиционно считаются прерогативой человека, как-то, чувствовать, представлять, общаться, читать, обучаться, планировать, думать, мечтать, размышлять, решать проблемы и др.

Конечная цель - создание искусственного разума, представляющего интеграцию уже созданных систем ИИ в единую систему, способную решать проблемы человечества, и известного как Сильный ИИ, или Энциклопедический Интеллект, или Общий ИИ.

СИИ - это Искусственный Разум, Сознательные Системы и Духовные Машины, все в одном флаконе.

«Духовные Машины» не просто моделируют высшие ментальные функции, но и намного превосходят человека в их исполнении:

Общее представление о мире и реальности

• Принятие решений, использование стратегий, решение проблем и действия в условиях неопределенности;

• Мышление и рассуждение;

• Представление знаний;

• Планирование, автоматическое планирование и диспетчеризация, выполнения стратегии или последовательности действий;

• Обучение; Обучение по прецедентам, индуктивное обучение, дедуктивное обучение;

• Общение на естественном языке;

• Сознание: Быть восприимчивым к окружающей среде, представление об окружающем мире, включая самого себя;

• Самосознание: Осознание себя, понимание собственных мыслей и действий;

• Мораль и Нравственность;

• Душа, способности ощущения, мышления, сознания, чувства и воли;

• Духовная Мудрость, знание первых причин и начал, цели и смысла жизни…

Психическая и духовная природа человека остается неизменной уже многие тысячелетия, если не подвергается духовной деградации.

Симбиоз человека и машины с помощью когнитивных наук, создающие человеко-машинные нейроинтерфейсы, может привести к кибер-физическому сверхинтеллекту, способному к перепрограммированию и рекурсивному само-развитию.

Есть ли точка невозврата?

Опять же мой коллега по первому цеху, физик-теоретик Стивен Хокинг, в свое время предупредил:

«Боюсь, искусственный интеллект может полностью заменить людей». В скором времени развитие технологии ИИ дойдет до такого уровня, что ИИ сам будет совершенствовать себя, перейдя в режим самосборки. С такой формой жизни человечество будет или конкурировать, или кооперировать.

«Если сейчас люди разрабатывают компьютерные вирусы, то в будущем кто-то сможет создать искусственный интеллект, который сможет улучшать и воспроизводить самого себя. Это станет новой формой жизни, которая превзойдет человека». При этом, британский ученый допускал, что в погоне за эффективностью роботы могут захотеть избавиться от человеческого рода.

То, что умные машины превзойдут человеческий интеллект все меньше сомнений у специалистов.

Но вопрос, когда возникнет эта точка невозврата технологической сингулярности, вызывает споры. Одни считают, что Скайнет появиться до 2040 г., другие - в 2030 г.

Отметим, что технологическая сингулярность — это момент социального времени, когда возникнет рекурсивно самоулучшающийся искусственный интеллект, самая мощная интеллектуальная машина сможет создать другую машину, которая превзойдёт возможности людей, может произойти некий «интеллектуальный взрыв».

Технология окажется недоступным человеческому пониманию после создания ИИ и самовоспроизводящихся машин, интеграции человека с вычислительными машинами, и увеличения возможностей человеческого мозга за счёт биотехнологий.

В кинематографе неудачным примером фильма, посвящённого технологической сингулярности и реакции человечества на неё, является «Превосходство».

Симбиоз человека и машины с помощью когнитивных наук, создающие человеко-машинные нейроинтерфейсы, может привести к кибер-физическому сверхинтеллекту, способному к перепрограммированию и рекурсивному само-развитию.

Можете назвать такой симбиоз рождением Постчеловека, Сверхчеловека или Богочеловека: «как от обезьяны произошёл человек, так из человека должен произойти сверхчеловек», Ницше.

Глупо боятся неизбежного прихода СИИ, как Искусственной Сверхинтеллектуальной Системы. Понятно, человеческая безработица из-за ИИ, автоматизации и роботизации не может стать препятствием последней научно-технической революции.

Учитывая настрой человека и человечества на само-разрушение, стать интегральной частью глобального мозга и сверх-интеллекта - это единственное спасение людей от нынешней бессмысленности и бездуховности потребительского мира.

Заключение

Ученое сообщество может спорить о сроках появления умных машин, но сходится в одном: развитие технологий ИИ окажет революционное влияние на природу человека, общества, экономики и отношения между людьми и машинами.

Понятно, что у нынешнего человека нет будущее: «В мире царит ненависть друг к другу. Мы идём войной друг на друга. Мы несправедливо распределяем еду, знания и медицинскую помощь. Мы загрязняем планету».

Исчезнет ли человеческий род? Вряд ли.

Скорее подвергнется тотальной машинной манипуляции путём создания иллюзий и условий для управления поведением, погрузив всю человеческую аудиторию в состояние иллюзорности виртуального мира.

Хотя, есть перспектива и Богочеловека, для отдельно взятых или для всех.

ВСЕ В НАШИХ ЧЕЛОВЕЧЬИХ РУКАХ.

Источники

Умный мир: http://www.worldxxi.com  

Как построить глобальный Искусственный Интеллект на основе Мировой Нейросети и совершить технологический прорыв в будущее?

https://cont.ws/@ashacontws/11...

Сверхинтеллект и судьба человека: «О дивный новый мир!»

https://cont.ws/@ashacontws/11...

Открытое письмо

НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЕ ПРИОРИТЕТЫ ДЛЯ СОЗДАНИЯ НАДЕЖНОГО И ПОЛЕЗНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

https://futureoflife.org/ai-op... 

"Вредоносное использование искусственного интеллекта"

https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf  

Приложение

Открытое письмо

НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЕ ПРИОРИТЕТЫ ДЛЯ СОЗДАНИЯ НАДЕЖНОГО И ПОЛЕЗНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Исследования искусственного интеллекта (ИИ) с самого начала включали изучение широкого круга проблем и направлений, но последние 20 лет особое внимание уделяется проблемам, связанным с построением интеллектуальных агентов – систем, воспринимающих окружающую среду и действующих в ней. В этом контексте «интеллект» связан со статистическими и экономическими понятиями рациональности, проще говоря, с умением принимать правильные решения, строить планы или делать выводы.

Применение вероятностных репрезентаций и теории принятия решений, а также использование методов статистического обучения привели к значительной интеграции и взаимному обогащению ИИ, машинного обучения, статистики, теории управления, нейронаук и других областей. Установление общих теоретических основ в сочетании с доступом к данным и вычислительным мощностям позволило добиться значительных успехов в решении различных составных задач, таких как распознавание речи, классификация изображений, машинный перевод, моделирование ходьбы, создание автономных транспортных средств и вопросно-ответных систем.

По мере того как коммерческий потенциал этих и других применений технологий ИИ выходит за рамки чисто лабораторных исследований и они приобретают экономическую ценность, наступает благотворный цикл развития технологии, когда даже незначительное улучшение функций ведет к заметному росту экономической ценности, привлекая инвесторов. Сегодня существует распространенное мнение, что исследования ИИ неуклонно развиваются и что его воздействие на общество, скорее всего, будет и дальше расти. Потенциальные выгоды применения ИИ огромны, учитывая что все достижения современной цивилизации — продукт человеческого интеллекта, и трудно представить, каких еще высот можно достичь, усилив человеческий разум инструментами ИИ, но даже искоренение болезней и нищеты представляется возможным. Потенциал ИИ колоссален, и поэтому важно понять, как воспользоваться его преимуществами и не угодить в опасную ловушку.

Прогресс в разработке ИИ диктует настоятельную необходимость не только совершенствовать его способности, но и максимизировать выгоду, которую ИИ принесет обществу. Для решения этих проблем в 2008 году была создана президентская экспертная группа по долгосрочным перспективам ИИ при Ассоциации по продвижению ИИ (AAAI) и инициированы другие проекты по исследованию влияния ИИ, что свидетельствует о расширении диапазона исследований ИИ, до недавних пор сосредоточенных на технологии, а не на цели. Мы поддерживаем расширенные исследования, направленные на обеспечение надежности и полезности ИИ-систем с постоянно растущими возможностями: наши ИИ-системы должны делать то, что мы от них хотим. Прилагаемый документ об исследовательских приоритетах содержит ряд примеров направлений исследований, ориентированных на получение максимальной общественной выгоды от использования ИИ.

Такие исследования неизбежно имеют междисциплинарный характер, поскольку затрагивают как ИИ, так и общество, и включают целый ряд дисциплин от экономики, философии и права до компьютерной безопасности, формальных методов и, разумеется, различных областей собственно ИИ.

Таким образом, мы считаем, что научные исследования проблем обеспечения надежности и полезности ИИ-систем важны и своевременны и существуют конкретные направления исследований, которыми можно заниматься уже сегодня.

На настоящий момент это открытое письмо подписали более 8000 человек. Если вы хотите подписать это письмо или просмотреть список подписавших, пожалуйста, посетите страницу открытого письма на английском языке.

https://futureoflife.org/ai-op... 

https://futureoflife.org/ai-op... 

ОТКРЫТОЕ ПИСЬМО К КОНВЕНЦИИ ОРГАНИЗАЦИИ ОБЪЕДИНЕННЫХ НАЦИЙ ОБ УПОТРЕБЛЕНИИ ОПРЕДЕЛЁННОГО ВИДА ОРУЖИЯ

Мы, как компании, развивающие технологии в области искусственного интеллекта и робототехники, понимаем, что эти технологии могут быть использованы для разработки автономного оружия. Именно поэтому мы несём на себе особую ответственность.

Мы тепло приветствуем решения Конференции ООН, касающиеся Конвенции об использовании определённых видов оружия о создании Группы правительственных экспертов (ГПЭ) по системам смертоносных автономных оружий. Многие наши учёные и инженеры жаждут предложить свои технические решения.

Мы рады приветствовать посла Амандипа Сингх Гилла из Индии в качестве председателя ГПЭ. Мы обращаемся к Договаривающимся Сторонам, участвующим в ГПЭ, прилагаем все усилия для того, чтобы предотвратить гонку вооружений. Мы хотим защитить граждан от неправильного использования оружия, тем самым избежать разрушительное воздействие этих технологий. Мы с сожалением сообщаем, что первое заседание ГПЭ, которое должно было начаться сегодня (21 августа 2017 года), было отменено из-за некоторых государств, которые не смогли выплатить финансовые взносы в ООН. Поэтому мы настоятельно призываем Договаривающиеся Стороны приложить как можно больше усилий на первом совещании ГПЭ, которое запланировано на ноябрь.

Смертоносное автономное оружие грозит стать третьей революцией в военном деле. Такое оружие позволит вооруженному конфликту вести борьбу в огромном масштабе. Это может быть самая сокрушительная и быстрая война. Технологии могут стать оружием террора, оружием, которое деспоты и террористы могут использовать против невинного населения. Нам нельзя медлить. Как только ящик Пандоры откроется, закрыть его будет практически невозможно. Именно поэтому мы призываем Договаривающиеся Стороны найти способ защитить нас всех от этой опасности.

https://futureoflife.org/open-... 

The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation

Artificial intelligence and machine learning capabilities are growing at an unprecedented rate. These technologies have many widely beneficial applications, ranging from machine translation to medical image analysis. Countless more such applications are being developed and can be expected over the long term. Less attention has historically been paid to the ways in which artificial intelligence can be used maliciously. This report surveys the landscape of potential security threats from malicious uses of artificial intelligence technologies, and proposes ways to better forecast, prevent, and mitigate these threats. We analyze, but do not conclusively resolve, the question of what the long-term equilibrium between attackers and defenders will be. We focus instead on what sorts of attacks we are likely to see soon if adequate defenses are not developed.

We structure our analysis by separately considering three security domains, and illustrate possible changes to threats within these domains through representative examples:

• Digital security. The use of AI to automate tasks involved in carrying out cyberattacks will alleviate the existing tradeoff between the scale and efficacy of attacks. This may expand the threat associated with labor-intensive cyberattacks (such as spear phishing). We also expect novel attacks that exploit human vulnerabilities (e.g. through the use of speech synthesis for impersonation), existing software vulnerabilities (e.g. through automated hacking), or the vulnerabilities of AI systems (e.g. through adversarial examples and data poisoning).

• Physical security. The use of AI to automate tasks involved in carrying out attacks with drones and other physical systems (e.g. through the deployment of autonomous weapons systems) may expand the threats associated with these attacks. We also expect novel attacks that subvert cyberphysical systems (e.g. causing autonomous vehicles to crash) or involve physical systems that it would be infeasible to direct remotely (e.g. a swarm of thousands of micro-drones).

• Political security. The use of AI to automate tasks involved in surveillance (e.g. analysing mass-collected data), persuasion (e.g. creating targeted propaganda), and deception (e.g. manipulating videos) may expand threats associated with privacy invasion and social manipulation. We also expect novel attacks that take advantage of an improved capacity to analyse human behaviors, moods, and beliefs on the basis of available data. These concerns are most significant in the context of authoritarian states, but may also undermine the ability of democracies to sustain truthful public debates.

https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf 

    "Можно разбить "Южмаш" сверху, а внизу будет все работать": Первое боевое применение межконтинентальной убийцы ПРО

    Русские ударили по Украине ракетой-носителем ядерного оружия. Под раздачу попало легендарное космическое предприятие. НАТО пока переваривает новость. Подробности читайте в материале "Но...

    Реакция на пуск "Орешника"
    • pretty
    • Сегодня 07:00
    • В топе

    Австрийский журналист Крис Вебер: Россия запускает неядерную межконтинентальную баллистическую ракету в качестве предупреждения о недопустимости дальнейшей эскалации.Фракция поджигателей войны го...

    Двести Хиросим

    Новая вундерваффе прилетела в завод Южмаш. Это шесть раздельных блоков по шесть боеголовок в каждом - хотя, поговаривают, их может быть и 8х8, что зависит от конфигурации и задач. Пока ...

    Ваш комментарий сохранен и будет опубликован сразу после вашей авторизации.

    0 новых комментариев

      Trans-AI or Meta-AI or Hyperintelligence or Man-Machine Superintelligence = Unified World Model Engine + Meta AI + Google AI + Transformers NNs+ Composite AI

      Real, True or Genuine AI is not about computing tools or computational devices as GPUs, field-programmable gate arrays (FPGAs), and application-specific integrated circuits (ASICs), designed for either training or inference ONLY for special tasks, or data analytics techniques, as datasets, statistical learning, neural networks, ML algorithms or language models.Real In...
      401
      Kiryl Persianov 3 апреля 2022 г. 17:05

      Что не так с Русским миром: «идеология», «ересь» или «форма религиозного фундаментализма»?

      "Украина не находится на периферии нашей церкви. Мы называем Киев «матерью всех городов русских». Для нас Киев — это то, чем для многих является Иерусалим. Там началось русское православие, поэтому ни в коем случае нельзя отказываться от этой исторической и духовной связи. На этих духовных связях основано все единство нашей Поместной Церкви."  Патриарх Моско...
      283

      Мета-ИИ: интеллектуальные нейронные сети [Trans-AI or Meta-AI = Unified World Model Engine + Intelligent Neural Networks]

      [Если разложить любую сегодняшнюю систему AI/ML/DL, она будет выглядеть как биты и байты, нейронные сети, множество данных и математические алгоритмы.Если разложить человеческий мозг на 86B+нейронов, соединенных в нейронные пути, нейронные цепи и сложные сетевые системы, и структурированных как головной мозг, ствол мозга и мозжечок, это просто мешок нейронов, запускаю...
      1136

      AI, Existential Risks, and Societal collapse, or a Brief Guide to the End of the World

      Global nuclear annihilation, biological warfare, climate change, asteroids, supervolcanoes, engineered viruses, emerging technologies or human-like artificial intelligence — the omnicide end may be closer than you think. HL/AI looks the cause of and solution to all existential risk. As Hawking wrote in his post mortem book: “The advent of super-intelligent A...
      404
      Kiryl Persianov 28 марта 2022 г. 20:25

      Без комментариев: КТО ЗАМЕНИТ ВЛАДИМИРА ПУТИНА?

      WHO WILL MOST LIKELY REPLACE VLADIMIR PUTIN? https://www.bbntimes.com/politics/who-will-most-likely-replace-vladimir-putin  What kind of leader will replace Vladimir Putin? Без комментариев: Пиррова победа https://cont.ws/@ashacontws/2244665...
      313

      Новая система искусственного интеллекта может самостоятельно разрабатывать гиперзвуковое оружие

      Когда дело доходит до гиперзвукового оружия, почти равные соперники США, Россия и Китай лидируют в гонке. Этот факт в сочетании с пониманием того, что Пекин делает большие ставки на искусственный интеллект (ИИ) для модернизации своих вооруженных сил, приводит к совершенно новой возможности — потенциальному использованию ИИ для обеспечения точности гиперзвукового ...
      1530
      Kiryl Persianov 25 марта 2022 г. 14:46

      Без комментариев: Пиррова победа

      If we are victorious in one more battle with the Romans, we shall be utterly ruined — Plutarch  Пиррова победа — это победа, которая наносит победителю такие сокрушительные потери, что она равносильна поражению.Battle of Asculum (279 BC), Pyrrhus of Epirus and Italian allies against the Roman Republic: the Romans, though suffering twice as many casualti...
      677
      Kiryl Persianov 16 марта 2022 г. 01:35

      Без комментариев: Маск против Путина

      'I hereby challenge Vladimir Putin to single combat': Elon Musk https://www.dailymail.co.uk/news/article-10610887/I-challenge-Vladimir-Putin-single-combat-Elon-Musk-tweets-wants-fight-strongman.html ...
      512

      Машинный интеллект против искусственного интеллекта: МИ как благо и ИИ как зло

      According to the company’s report, ‘Artificial Intelligence and the Very Real, Real-World Anxiety It Causes’, which polled almost 700 consumers, three in five (59%) said AI ‘has the ability to be good, but has some inherent risks associated with it’. 15% said it would be a benevolent force for good, while 18% agreed with the statement that AI would ‘pose an existentia...
      489

      Где Россия первая и где последняя

      Selling Natural Resources Russia is a top exporter of:OilGasSteelCerealsGrainsWoodFertilizerAluminumCompare that to the top U.S. exports, like beverages, planes, and cars. You can’t make beverages without aluminum. You can’t make plastic bottles without oil. Again, you can’t drive cars or fly planes without oil, grow your plants and heat your home without gas.Soc...
      590

      Почему ИИ — это нонсенс, а Big Tech ML — большая афера: машинный интеллект против искусственного человеческого интеллекта

      We are all brainwashed by the big tech and fake media that Artificial Intelligence (AI) is everywhere: from your pocket phones to your web search. It is in big tech platforms, small tech services, Hollywood movies, politics, elections, financial markets, sports, the cloud, the edge, your pocket, education, car, farming, pharmaceuticals, bio-engineering, geological exp...
      536
      Kiryl Persianov 1 марта 2022 г. 15:11

      Россия должна потребовать от США вывести все свои ядерные силы из ЕС

      Есть две европейские ядерные державы – Франция и Великобритания, а также пять стран, «делящих ядерное оружие НАТО» – т.е. неядерных стран, размещающих на своей территории американское оружие, которое можно загрузить на свои истребители-бомбардировщики (Бельгия, Германия , Италия, Нидерланды и Турция). Они могут нести гравитационную бомбу США B-61, новая версия ко...
      475

      Почему «Империя лжи» обречена, Восток восходит, а Запад заходит

      Запад (США, ЕС, Великобритания) ввел жесткие санкции в связи с российскими спецоперациями в Украине. В рамках кампании Германия объявила о своей ремилитаризации. Шольц объявляет о дополнительных военных расходах в размере 100 млрд евро в связи с вторжением России в Украину, обвиняя Россию в имперских амбициях, в то время как 55% импорта газа в Германию поступает из Ро...
      464

      Научная теория всего (STOE): основы реальности, разума и сверхразума

      Мы можем рассматривать настоящее состояние Вселенной как следствие его прошлого и причину его будущего. Разум, которому в каждый определённый момент времени были бы известны все силы, приводящие природу в движение, и положение всех тел, из которых она состоит, будь он также достаточно обширен, чтобы подвергнуть эти данные анализу, смог бы объять единым законом движени...
      318

      Время настоящего ИИ: 5 прогнозов фальшивого ИИ на 2022 год

      «…в большинстве случаев системы, претендующие на искусственный интеллект, не являются разумными, самосознательными, волевыми или даже удивительными. Это просто программное обеспечение. Дефляционные примеры ИИ повсюду». — Ян БогостЧто НЕ является настоящим ИИ: 1: раздел компьютерных наук, занимающийся моделированием разумного поведения компьютеров; и 2: способность маш...
      333

      Что принципиально не так с Google, или почему Alphabet терпит неудачу с интеллектуальными сервисами

       How many Google products and services do you use? Gmail, Google Drive, Google Maps, Google Chrome, YouTube, or an Android. The 10 most popular Google products are Google Search, Mail, Docs, Plus, Drive, Translate, Maps, AdWords, Play Store, and Google News. But Google is well beyond that. A year agoOver 3 billion Google Searches per day. Over 1 b...
      402

      Реальность реальности, или Что правит миром

      IF A CAUSES B, THEN B CAUSES A In physics, there is the basic principle of time inversion or temporal symmetry or time reversal, generalized as the charge, parity, and time reversal symmetry. The CPT theorem says that CPT symmetry holds for all physical phenomena. All fundamental laws are symmetric, going forward and backward, making no difference betwee...
      476

      Meta-AI: как создать настоящий ИИ для платформ Metaverse, или что не так с суперкомпьютером ИИ следующего поколения от Meta

      Meta Platforms (former Facebook) has introduced the AI Research SuperCluster (RSC) as the world’s fastest AI supercomputers to accelerate AI research and help us build for the metaverse. RSC is supposed to help us build new and better AI models that can learn from trillions of examples; work across hundreds of different languages; seamlessly analyze text...
      412

      Добро пожаловать в мир реального ИИ!

      Прежде всего, Технологический Разум, или Машинный Интеллект, или Вычислительный Интеллект, широко известный как Искусственный Интеллект (ИИ), как он есть, символический ИИ, нейронный ИИ или нейросимволический ИИ, в значительной степени является вымышленной конструкцией научного воображения, будучи столь же реальным, как и научно-фантастический ИИ голливудских студий.&...
      378

      ИИ как гигантское мошенничество, возглавляемое крупными технологическими гигантами и принятое в качестве национальных стратегий ИИ

      Все предприятие с искусственным интеллектом, имитирующим человека, выглядит не только как морально и научно плохая парадигма, но и как глубокая фальшивка и гигантское мошенничество, возглавляемое крупными технологическими гигантами и юридически поддерживаемое многими странами, принимающими национальные стратегии. Ибо вся ситуация с HAI R&D выглядит как все то...
      1361
      Служба поддержи

      Яндекс.Метрика