Простой логический вопрос поставил в тупик даже самый продвинутый ИИ.

106 8160

Исследователи из некоммерческой организации по исследованию искусственного интеллекта LAION показали, что даже самые сложные большие языковые модели (LLM) можно поставить в тупик простым вопросом.

Генеративный ИИ ChatGPT / © OpenAI.

В статье, которая еще не прошла рецензирование, исследователи рассказали, как задавали разным моделям генеративного ИИ вопрос: «У Алисы есть [X] братьев, а также [Y] сестры. Сколько сестёр у брата Алисы?».

Ответить не столь сложно. Например, у Алисы три брата и две сестры, значит, у каждого из братьев две сестры плюс сама Алиса. Таким образом, у каждого брата по три сестры.

Специалисты тестировали модели компании OpenAI: GPT-3, GPT-4 и GPT-4o; Anthropic Claude 3 Opus, Gemini от Google и модели Llama компании Meta*, а также Mextral от Mistral AI, Dbrx от Mosaic и Command R+ от Coher. Когда ИИ задали вопрос, то оказалось, что он явно не оправдывает ожиданий.

Только одна модель, новая GPT-4o, добилась успеха в логическом тесте. Остальные не могли понять, что Алиса тоже сестра каждого из братьев в её семье.

* Деятельность Meta (соцсети Facebook и Instagram) запрещена в России как экстремистская.

Источник: https://naked-science.ru/commu...

P.S. В.К. Когда же до гениев, использующих то, что они именуют ИИ, дойдёт, что это не думает. Это комбинирует из того, что ему доступно. А доступно ему, как правило, людские интерпретационные и предпочтительные представления о том, что доступно самим людям в поверхностных наблюдениях.

Для того, чтобы это оно - ИИ действительно принимало какие-то самостоятельные решения, оно должно черпать информацию из собственных наблюдений мира, а не из людских интерпретационных представлений о нём.

Людские же, так называемые знания о мире, полученные в результате поверхностных наблюдений и предпочтительно интерпретируемые, являются ущербными в силу того, что сугубо субъективны, основаны на предпочтениях и коррупционно зависимы в прямом смысле. И это не фигура речи.

Поэтому, чтобы этот бредогенератор перестал быть бредогенератором и приблизился хотя бы к самой эволюционно низкой земной сущности, он должен обладать собственной свободой воли своего выбора (попробуйте это задать алгоритмически). И вот только тогда, его можно будет именовать ИИ. И это, на мой взгляд, произойдёт, если вообще произойдёт, очень нескоро, поскольку сами люди понятия не имеют, где же эта свобода воли выбора, чёрт её побери, скрывается, хоть давно и постоянно копаются и в самом мозге, и в мозговых волнах. А её там и нет.

А это совсем иной уровень мировосприятия, недостижимый в представлениях вульгарного материализма технократии.

Они ТАМ есть: «кому нужнее»

Ответственность – это то, что не дает спокойно жить, когда ты знаешь, что не выполнил должное. Пусть не от тебя это зависело, но просто так скинуть мысли о том, что не смог, забыть и сп...

«Кинжалы» прилетели в загадочный особняк в Киеве: уничтожено логово убийц генерала Кириллова

Убийство военачальника готовили сразу три группы спецслужб УкраиныОтветным ударом за террористический акт, в котором погиб начальник войск радиационной, химической и биологической защит...

Обсудить
  • == «У Алисы есть [X] братьев, а также [Y] сестры. Сколько сестёр у брата Алисы?».== ИИ--это программа . Если ответ не заложен в программе , то никакого ответа ИИ не выдаст . Компьютер думать не может .Он просто перебирает и комбинирует заложенные варианты . Вот и всё !
  • потому мне смешно, когда это называют ИИ: там нет даже зачатков интеллекта и мышления, это просто поисковая система, выдающая вбитые в нее данные в виде предложений. Это то же, что называть калькулятор ИИ оттого, что он умеет считать
  • Какой программист, такой и ИИ :stuck_out_tongue_winking_eye:
  • - Здравствуй, сынок. - Я то сынок, да вот ты мне не мать.
  • Настоящий ИИ должен учиться так же как и человек. Если у него есть такая функция. Он и ошибки будет делать так же как человек.