Приехали: ИИ больше нечему учить - у человечества закончились знания

6 197

Американский миллиардер Илон Маск и бывший главный научный сотрудник OpenAI Илья Суцкевер заявили, что у компаний, занимающихся искусственным интеллектом, закончились данные для обучения генеративных моделей

«Мы уже практически исчерпали совокупный объем человеческих знаний <…> в области обучения ИИ. И это произошло в прошлом году», — заявил Маск в разговоре с председателем компании Stagwell Марком Пенном в соцсети X.

Эти слова прозвучали всего через несколько дней после того, как Суцкевер, который помогал создавать ChatGPT, рассказал на ежегодном мероприятии Neurips, что компании достигли пика данных — и больше их не будет.

Если это правда, значит, восполнить дефицит можно с помощью синтетических данных, то есть контента, который производят сами генеративные модели ИИ. Однако этот способ далек от идеала.

Исследователи из Стэнфордского университета и Университета Райса ранее обнаружили, что модели, обучаемые на данных, сгенерированных ИИ, будь то тексты или изображения, имеют тенденцию «сходить с ума» после пяти циклов обучения.


«Русские всегда держат слово», разморозка русских активов и рост силы русского паспорта

1. Одна из причин, по которым современная Россия выигрывает на дипломатическом фронте, заключается в прочности нашего слова. Иностранцы знают, что США, например, обязательно их кинут, тогда как ру...

Daily Express, Великобритания. Лавров на G20 показал, что речь Лэмми просто болтовня, не стоящая внимания
  • pretty
  • Вчера 20:05
  • В топе

На встрече G20 Лавров продемонстрировал высший класс дипломатии, отказавшись слушать пустые упреки главы британского МИДа. Не отреагировав на провокацию, министр доказал, что его уровень политической ...

Обсудить
  • Стивен Уильямович знает о чём говорит. Впрочем и невежество большая сила... :joy: :joy: :joy:
  • Пустили козла в огород
  • Знания - есть модели, математические или образные, которые позволяют моделировать реакцию системы на то или иное воздействие. Модель привязана к системе, которую она описывает и к тем целям, которые перед собой ставит разработчик. Например: известно какому множеству воздействий будет подвергаться система - интересует: как система на это отреагирует. Или обратная задача: известно какие реакции мы ждем от системы - интересует: какой комплекс воздействий нужно к ней приложить. Модель всегда есть только приближенное описание системы, иногда вообще не отражает ее внутреннее устройство, главное, что позволяет верно предсказывать последовательность событий. Не факт, что эти события имеют причинно-следственные связи. Например: петух пропел - скоро взойдет солнце. Теперь вопрос: каким образом ИИ может создать новую модель, если а) он не имеет возможности провести эксперимент, который подтвердит, что вслед за событием А с какой-то вероятностью произойдет событие Б? б) ИИ вообще не ставит перед собой целей, ввиду того, что у него нет потребностей. Итог: говорить, что все знания уже закачены в ИИ - некорректно (по меньшей мере). Могут быть закачаны все доступные модели, которые были созданы под поставленные задачи. Будут новые задачи - создадут новые модели. Сам по себе процесс бесконечен.