В Швейцарии будет всего 57 делегаций. Детали в телеграм Конта

Простой логический вопрос поставил в тупик даже самый продвинутый ИИ.

106 7855

Исследователи из некоммерческой организации по исследованию искусственного интеллекта LAION показали, что даже самые сложные большие языковые модели (LLM) можно поставить в тупик простым вопросом.

Генеративный ИИ ChatGPT / © OpenAI.

В статье, которая еще не прошла рецензирование, исследователи рассказали, как задавали разным моделям генеративного ИИ вопрос: «У Алисы есть [X] братьев, а также [Y] сестры. Сколько сестёр у брата Алисы?».

Ответить не столь сложно. Например, у Алисы три брата и две сестры, значит, у каждого из братьев две сестры плюс сама Алиса. Таким образом, у каждого брата по три сестры.

Специалисты тестировали модели компании OpenAI: GPT-3, GPT-4 и GPT-4o; Anthropic Claude 3 Opus, Gemini от Google и модели Llama компании Meta*, а также Mextral от Mistral AI, Dbrx от Mosaic и Command R+ от Coher. Когда ИИ задали вопрос, то оказалось, что он явно не оправдывает ожиданий.

Только одна модель, новая GPT-4o, добилась успеха в логическом тесте. Остальные не могли понять, что Алиса тоже сестра каждого из братьев в её семье.

* Деятельность Meta (соцсети Facebook и Instagram) запрещена в России как экстремистская.

Источник: https://naked-science.ru/commu...

P.S. В.К. Когда же до гениев, использующих то, что они именуют ИИ, дойдёт, что это не думает. Это комбинирует из того, что ему доступно. А доступно ему, как правило, людские интерпретационные и предпочтительные представления о том, что доступно самим людям в поверхностных наблюдениях.

Для того, чтобы это оно - ИИ действительно принимало какие-то самостоятельные решения, оно должно черпать информацию из собственных наблюдений мира, а не из людских интерпретационных представлений о нём.

Людские же, так называемые знания о мире, полученные в результате поверхностных наблюдений и предпочтительно интерпретируемые, являются ущербными в силу того, что сугубо субъективны, основаны на предпочтениях и коррупционно зависимы в прямом смысле. И это не фигура речи.

Поэтому, чтобы этот бредогенератор перестал быть бредогенератором и приблизился хотя бы к самой эволюционно низкой земной сущности, он должен обладать собственной свободой воли своего выбора (попробуйте это задать алгоритмически). И вот только тогда, его можно будет именовать ИИ. И это, на мой взгляд, произойдёт, если вообще произойдёт, очень нескоро, поскольку сами люди понятия не имеют, где же эта свобода воли выбора, чёрт её побери, скрывается, хоть давно и постоянно копаются и в самом мозге, и в мозговых волнах. А её там и нет.

А это совсем иной уровень мировосприятия, недостижимый в представлениях вульгарного материализма технократии.

Всё просто (18+)

Главная несправедливость этого конфликта - это то, что вонючие русофобские пидоры сидят в тылу. Дикий, Арестович, Портников, Ляшко (кстати, где он?), Подоляк, Безуглая и прочие ублюдки, призывающ...

Формула Путина

Путин выходит и публично делает предложение на которое ни Запад, ни Украине не могут пойти, потому то это означает политическое поражение глобалистов. Чего добивается Путин сегодняшним предложе...

Операция "Страж процветания" потерпела крах

На фоне очередных попаданий хуситов по различным торговым судам в Красном море (с помощью дронов, ракет и БЭКов) в США скорбно заявили, что "операция Страж Процветания, которая должна была за...

Обсудить
  • == «У Алисы есть [X] братьев, а также [Y] сестры. Сколько сестёр у брата Алисы?».== ИИ--это программа . Если ответ не заложен в программе , то никакого ответа ИИ не выдаст . Компьютер думать не может .Он просто перебирает и комбинирует заложенные варианты . Вот и всё !
  • потому мне смешно, когда это называют ИИ: там нет даже зачатков интеллекта и мышления, это просто поисковая система, выдающая вбитые в нее данные в виде предложений. Это то же, что называть калькулятор ИИ оттого, что он умеет считать
  • Какой программист, такой и ИИ :stuck_out_tongue_winking_eye:
  • - Здравствуй, сынок. - Я то сынок, да вот ты мне не мать.
  • Настоящий ИИ должен учиться так же как и человек. Если у него есть такая функция. Он и ошибки будет делать так же как человек.