В конце прошлого года Всероссийский центр изучения общественного мнения (ВЦИОМ) опубликовал результаты исследования, которые показали, что существует проблема маркировки ИИ-контента и она волнует многих пользователей: тогда 69% опрошенных россиян поддержали введение маркировки ИИ-контента.
В этом направлении Министерство цифрового развития, связи и массовых коммуникаций анонсировало разработку платформы для выявления дипфейков, созданных с применением ИИ. Это стало частью стратегии национального проекта «Экономика данных», инициированного премьер-министром Михаилом Мишустином. По словам представителя Минцифры, рассмотрение возможности создания единой платформы для выявления фейковой информации, включая дипфейки, открывает новые перспективы в борьбе с дезинформацией. Однако для определения стратегии в решении этого вопроса требуется провести глубокие исследования для определения эффективных методов обнаружения и анализа поддельных материалов, созданных при помощи ИИ. Что вызывает сейчас бурные обсуждения в цифровой среде.
14 мая член комитета ГД по информполитике Антон Немкин сообщил, что госдума начала разрабатывать законодательную инициативу по маркеровке контента, созданного нейросетями. Депутат также отметил, что законопроект разрабатывается совместно с экспертами и основываясь на опыте других стран. Каких именно экспертов и какие именно страны рассматриваются, как пример работы с маркировакой контента, созданного ИИ, Немкин не уточнил.
По словам Немкина, человеку важно иметь представление о том, с чем он имеет дело, отличать реальное от нереального, как и в случае с рекламой, - пользователя очень легко обмануть и завлечь куда-то, а задача государства не позволить это сделать. Депутат также поделился эстетической стороной вопросы, по его мнению маркировка может осуществляться при помощи графических или водяных знаков,она должна быть «ненавязчивой, но при том четкой и заметной для любогог пользователя».
В силу того, что пока не ясно, какая экспертиза позволит распознавать степень участия машины и человека в одном и том же тексте, российские ИИ-сервисы должны автоматически маркировать любые сгенерированные тексты. В первую очередь, задуматься над подобными технологиями цифровой маркировки изображений нужно российским компаниям, развивающим компетенции в области генеративных нейросетей - прежде всего, "Сберу" и "Яндексу", предложил Немкин.
Пока Немким акцентирует внимание на текстовом контенте, мы обратились к опыту других стран и посмотрели, какой именно ИИ контент больше всего нуждается в регулировании и маркеровки. В контексте информационной безопасности, обнаружение и маркировка дипфейков является основным фокусом у государтсв.
На сегодняшний день выявление дипфейков не автоматизировано и пока основано преимущественно на анализе контента специалистами по информационной безопасности и криминалистами в ручную. Ведущие IT-специалисты видят несколько вариантов для решения проблемы с дипфейками. Одним из предложенных решений является разработка плагина, который будет автоматически сканировать веб-сайты на наличие контента, созданного с использованием искусственного интеллекта. Однако вопрос о его интеграции в социальные сети и мессенджеры остается открытым, и зависит от готовности их владельцев к такому изменению.
В других странах уже ведутся разработки интеллектуальных систем для определения сгенерированного контента. Intel представил технологию FakeCatcher для обнаружения дипфейков в реальном времени. Как заявляет производитель, детектор обладает точностью 96 % и анализирует цветовые изменения кожи, характерные только для настоящих людей. В процессе работы используются инструменты Intel, включая OpenVino, OpenCV и Deep Learning Boost.
Онлайн-инструмент Sensity обнаруживает поддельные лица на фото и видео с помощью методов глубокого обучения и судебной экспертизы.
Для эффективного мониторинга и обнаружения дипфейков в социальных сетях, возможно, потребуется разработка специализированного ПО или получение доступа к API платформ. Также обсуждается вопрос о внедрении водяных знаков как средства защиты от неправомерного использования ИИ-контента. Хотя при этом стоит учитывать, что для сервисов такая маркировка может оказаться невыгодной, если она не станет обязательной. Таким образом, необходимо провести дальнейшие обсуждения и принять соответствующие нормативные акты.
В зарубежном опыте уже есть примеры использования маркировки контента, созданного с применением ИИ. Например, в Китае маркировать ИИ-контент необходимо в популярном сервисе TikTok. В США еще в прошлом году власти пришли к соглашению с крупными разработчиками генеративного ИИ о маркировке сгенерированного в их сервисах контента. Так на YouTube создатели должны указывать, если их видео были сделаны с помощью ИИ. Платформа представила новый инструмент в Creator Studio, который требует раскрытия информации об этом, если контент может быть воспринят зрителями как реальный.
Оценили 0 человек
0 кармы