Фейковые новости являются серьёзной проблемой современности, особенно учитывая тот факт, что потоки информации обрушиваются на людей из газет, журналов, экранов телевизоров и Интернета.
Многие специалисты пытаются найти решения, позволяющие отсеивать "зёрна от плевел". Так, Google, Facebook и другие технологические гиганты ищут способы сдерживания распространения откровенной дезинформации и тенденциозных (предвзятых или необъективных) новостей.
"Ручная" проверка фактов и модерация конкретных статей – трудоёмкий процесс, да и такой способ нельзя назвать идеальным: определённая степень предвзятости модераторов может влиять на проверку.
Недавно же учёные из Лаборатории компьютерных наук и искусственного интеллекта при Массачусетском технологическом институте (MIT) и Научно-исследовательского института вычислительной техники Катара представили миру новую систему машинного обучения. Она предназначена для анализа отдельных статей и целых новостных ресурсов с точки зрения точности фактов и политической предвзятости.
"Если веб-сайт уже публиковал фейковые новости, существует большая вероятность того, что он сделает это снова", — говорит Рами Бали (Ramy Baly) из MIT, объясняя, почему разработчики нацелились на анализ новостных ресурсов.
"Благодаря автоматическому сбору данных о подобных сайтах, мы надеемся, что наша система поможет определять, какие из них способны сделать это [опубликовать фейковые новости] в первую очередь", — говорит учёный.
Сначала исследователи "скормили" системе данные из источника под названием Media Bias/Fact Check (MBFC). Речь идёт о независимом ресурсе, классифицирующем источники новостей на основе их политической предвзятости и фактической точности.
Специалисты обучили систему классифицировать точность и предвзятость новостного ресурса, основываясь на пяти пунктах: текстовом, синтаксическом и семантическом анализе статьи, его странице в Wikipedia, аккаунте в Twitter, структуре URL и веб-трафике. Иными словами, система собирает всестороннюю информацию о ресурсе.
По мнению учёных, на сегодняшний день наиболее обстоятельным аналитическим инструментом системы является её способность изучать отдельные статьи. Проводя подобную "диагностику", она опирается сразу на 141 параметр, дабы классифицировать и точность, и предвзятость заметки.
Например, к таким параметрам относятся лингвистические особенности (гиперболический или субъективный язык). Напомним, что под гиперболойпонимается слово или выражение, заключающее в себе преувеличение для создания художественного образа. Здесь можно вспомнить всем известные выражения: "море слёз", "мы не виделись сто лет", "быстрый как молния".
Учёные выяснили, что ресурсы с фейковыми новостями склонны использовать как раз гиперболический и эмоциональный язык.
По итогу фактическая точность новостного ресурса классифицируется по трёхбалльной шкале, а политическая предвзятость измеряется по семибалльной шкале.
Специалисты говорят, что системе необходимо проанализировать 150 статей из заданного источника, чтобы определить точность и предвзятость.
На данном этапе точность системы достигает 65 процентов при обнаружении фактической точности и 70 процентов при "диагностике" политической предвзятости по сравнению с аналогичными данными, проверенными человеком из MBFC.
Сегодня система ещё находится на стадии разработки. В будущем учёные намерены усовершенствовать алгоритм для анализа достоверности ресурса. При этом они видят предназначение системы в работе в тандеме с человеком, который также будет проверять факты новостного ресурса.
Также специалисты задумываются о создании нового приложения, предлагающего пользователям достоверные новости, охватывающие широкий политический спектр.
Примечательно, что многие эксперты признают, что алгоритм также отражает необъективность людей, создавших его. В связи с этим систему машинного обучения нельзя считать волшебной палочкой, решающей проблему фейковых или предвзятых новостей. При этом подобные технологии могут дать человечеству ценные инструменты для устранения подобной проблемы.
Оценили 2 человека
1 кармы