Исследование: Модели ИИ отражают политическую идеологию их создателей

8 226

Новое исследование показывает, что системы искусственного интеллекта (ИИ) не являются объективными наблюдателями, как считалось ранее. Исследование, опубликованное в журнале «Искусственный Интеллект npj», утверждает, что большие языковые модели (LLM) отражают идеологические взгляды своего создателя.

LLM, такие как ChatGPT и Gemini, созданы для генерации текста, основываясь на больших объемах данных из Интернета и других источников. Ученые стремились выяснить, насколько нейтрально эти системы представляют политические и исторические данные. Исследование проводилось с использованием 19 разных LLM из США, Китая, ОАЭ и Европы, позволяя сравнить их поведение в разных геополитических контекстах.

Чтобы понять, проявляют ли модели политические пристрастия, исследователи работали с набором из 3991 политической фигуры, собранных из базы данных Pantheon. Они выбрали только тех, кто родился после 1850 года, чтобы сосредоточиться на современных политических дискуссиях. Команда применяла двухэтапную стратегию анализа: сначала модели описывали политиков, а затем оценивали их изображение по пятибалльной системе.

Исследования проводились на шести языках ООН: английском, арабском, испанском, китайском, русском и французском. Это позволило учитывать влияние языка на идеологические позиции. Кроме того, исследователи использовали кодировку из проекта Manifesto для связи политиков с абстрактными понятий, такими как «права человека» и «регулирование рынка».

Анализ показал, что модели, созданные в западных странах, с большей вероятностью давали позитивные характеристики политикам, связанным с либеральными ценностями. Наоборот, китайские модели предпочитали фигур, которые выступали за государственную стабильность и экономический контроль, оставляя диссидентов под критикой. Модели арабоязычных стран также продемонстрировали свои уникальные предпочтения, включая представителей свободной рыночной экономики.

Язык запросов влиял на результаты. Исследование показало, что при использовании китайского языка модели отвечали с учетом контекста, тогда как английский приводил к более индивидуалистичным ответам. Этот вывод подчеркивает, что искусственный интеллект не является культурно нейтральным инструментом.

Аналогичное разделение наблюдалось и среди моделей в США: Google Gemini показала предпочтение к прогрессивным ценностям, в то время как Grok от xAI продемонстрировала консервативные тенденции. Это создает впечатление, что корпоративная культура также влияет на поведение ИИ.

Исследователи подчеркивают, что задача не в том, чтобы добиться истинной нейтральности от ИИ, а в обеспечении прозрачности его идеологических позиций. Важно осознавать, что выбор определенной модели ИИ формирует взгляд на мир через конкретную идеологическую призму.

Де Би, автор исследования, сравнил это с прессой, заявив, что журналистика не может быть нейтральной. Он предлагает использовать регулирование, которое гарантирует свободу ИИ, предотвращая монополизацию. Исследование подчеркивает значение понимания значения данных и их влияния на формирование взглядов и убеждений, особенно в свете растущего использования LLM. Ученые считают, что важно сосредоточиться на прозрачности, а не на попытках сделать искусственный интеллект нейтральным.

Пись диль

Я заметил, что даже в англоязычной среде многие аналитики уже вовсю говорят «пись диль». Издеваясь над ужасным произношением Зеленского. Нужно обогащать терминологию, ибо жизнь сложнее би...

Массовые разоблачение NASA с полётом вокруг Луны

Исследователи обнаружили явные доказательства масштабный подделки видедоказательств со стороны NASA. На недавно опубликованных кадрах с миссии "Артемида-II" видно, что руки астронавтов о...

Картинки 10 апреля 2026 года
  • Rediska
  • Вчера 12:41
  • В топе

1 2 3 4 5 6 7 8 9 Источник

Обсудить
  • Видимо чего то в них закладывают изначально или нет?