Большие языковые модели (LLM), например, ChatGPT и DeepSeek, сегодня стали неотъемлемой частью информационного пространства. Они помогают генерировать тексты, отвечают на вопросы и выполняют множество других задач. Однако исследователи из Массачусетского технологического института (США) обнаружили, что все эти модели, несмотря на свое кажущееся совершенство, часто страдают от “предвзятости позиции”.
Это нередко сказывается на качестве их работы.
Что это такое
Предвзятость позиции — это феномен, при котором языковые модели переоценивают информацию, содержащуюся в начале и в конце текста, игнорируя или недооценивая данные в середине. То есть, по сути, проявляя к ним невнимательность. Это явление может создавать трудности для авторов, которые пытаются выделить ключевые фразы или идеи в длинных документах. Например, в исследовании, представленном на Международной конференции по машинному обучению, было показано, что модель имеет 85% вероятность найти нужную информацию в начале или в конце текста, но только 60% — в середине.
В чем причина
Команда под руководством Синьи Ву разработала теоретическую модель, объясняющую, почему LLM часто фокусируются на начале и конце текста. Основная причина заключается в том, как эти модели обрабатывают информацию. Они читают текст по частям и “приглядываются” к наиболее значимым словам, чтобы правильно интерпретировать смысл. Однако, из-за определенных технических ограничений (в частности, способности учитывать только предыдущие слова или фиксированный порядок слов) возникает смещение.
Модели, как правило, обучаются на больших объемах текста, где начало и конец часто содержат важные вводные и заключительные моменты. Это создает ложное впечатление о том, что информация в этих частях текста более значима, чем в середине. В результате, когда модель анализирует новый текст, она может неправильно оценить важность информации, содержащейся в центральной части.
U-образный эффект
Исследования также показали, что точность распознавания информации у языковых моделей выше на краях текста и заметно хуже в центре, что называется U-образным эффектом. Этот эффект особенно выражен в больших моделях, таких как GPT-4, которые обладают до 96 слоями анализа. Чем больше слоев, тем сложнее становится процесс интерпретации, что может усугублять предвзятость позиции.
Названа главная проблема нейросетей

- Язабыл Падписацца Асёл
- Сегодня 08:22
- В топе
Таких ударов до этого не былоКак хорошо начинался вечер. После дневного удара баллистическими ракетами по Хайфе на условном ирано-израильском фронте воцарилась гнетущая тишина. Хотя, ис...

- Александр Дубровский
- Сегодня 10:29
- В топе
Доказано историей: самые большие концлагеря построили немцы. Но есть нюанс. UPD: есть уже два нюанса – Украина и Израиль. Израильтянам запрещено покидать страну (министр транспорта...

- pretty
- Сегодня 07:17
- В топе
Президент России Владимир Путин выступил на пленарной сессии ПМЭФ и затронул множество важных для страны и мира тем. Иностранная пресса с большим вниманием следила за мероприятием и подробно его освет...
-
- supplat
- Вчера 11:11
"Предвзятость позиции" - ерунда, это вы спрашивать не умеете. -
- Oldvonik
- Вчера 13:12
Все как у людей :smirk: -
- Ева Скарлетт
- Вчера 16:44
Написать хорошую статью, отредактировать ее, подобрать креатив и многое другое поможет ИИ https://usegpt.ru/?source=1713
Оценили 7 человек
11 кармы