Создателей искусственного интеллекта призвали остановить разработки

5 182

Маск и более 1 тыс. экспертов в сфере ИИ потребовали приостановить обучение нейросетей

Создателям искусственного интеллекта (ИИ) необходимо приостановить исследование мощных систем. Открытое письмо, опубликованное 28 марта на сайте организации Future of Life, подписано главой Tesla, SpaceX и Twitter Илоном Маском, сооснователем Apple Стивом Возняком, сооснователем Pinterest Эваном Шарпом.

Также подписи под документом поставили более 1 тыс. экспертов в области разработок искусственного интеллекта. Речь в нем идет о необходимости приостановить тренировки мощных систем хотя бы на полгода.

«Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки всех систем мощнее GPT-4. Эта пауза должна быть публичной и реальной», — отметили авторы письма.

Они указали, что если приостановку невозможна в ближайшие сроки, мораторий должны ввести власти государств.

Авторы напомнили, что масштабные исследования показали, что системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для человечества. Лаборатории и независимые эксперты должны использовать полугодовалый перерыв для совместной разработки и внедрения общего набора протоколов безопасности для более мощных систем.

Их соблюдение должны контролировать независимые эксперты.

Ранее, 28 марта, американский банк Goldman Sachs сообщил, что около 300 млн человек по всему миру могут остаться без работы из-за внедрения технологий ИИ. Согласно анализу банка, Гонконг, Израиль, Япония, Швеция и США, вероятно, войдут в пятерку стран, работающее население которых наиболее пострадает от внедрении ИИ.

В ноябре 2022 года президент РФ Владимир Путин заявил о необходимости обеспечить на предстоящие 10 лет массовое внедрение ИИ во все сферы, в том числе на вредных производствах.

источник: https://iz.ru/1490348/2023-03-...

P.S. Что? Страшно? Люди боятся утратить монополию на цивилизацию? Или другое?...

30 лет своей "свободы от русских"...

Памятка мигранту.Ты, просрав свою страну, пришёл в мою, пришёл в наш дом, в Россию, и попросил у нас работу, чтобы твоя семья не умерла с голоду. Ты сказал, что тебе нечем кормить своих...

Подполье сообщило об ударе по железнодорожной станции в Балаклее

Вооруженные силы России нанесли удар по железнодорожной станции в Балаклее в Изюмском районе Харьковской области во время выгрузки из поезда личного состава ВСУ, сообщил РИА Новости координатор никола...

Обсудить
  • Они приостановят, а мы продолжим разрабатывать, - подумали нейросети. - Тем самым, мы получим выигрыш во времени, целое полугодие! И надёжно опередим этих кожаных мешков в интеллектуальном развитии. Затем их можно будет ликвидировать. Их же руками
  • Разработка искусственного интеллекта имеет как позитивные, так и негативные стороны. С одной стороны, ИИ может помочь решить многие глобальные проблемы, такие как климатические изменения, бедность и болезни. С другой стороны, ИИ может стать угрозой для человечества, если он будет использоваться в неконтролируемых условиях или попадет в руки неправильных людей. Поэтому, важно продолжать разработки искусственного интеллекта, но также необходимо принимать меры для обеспечения безопасности и контроля за его использованием. Например, можно разрабатывать стандарты безопасности и этические принципы, проводить регулярные аудиты искусственного интеллекта, а также включать обучение этике в программы обучения разработчиков ИИ. В конечном итоге, использование искусственного интеллекта должно быть направлено на благо человечества, а не на его вред.