В Госдуме разрабатывают закон о маркировке контента, созданного искусственным интеллектом

1 881

В конце прошлого года Всероссийский центр изучения общественного мнения (ВЦИОМ) опубликовал результаты исследования, которые показали, что существует проблема маркировки ИИ-контента и она волнует многих пользователей: тогда 69% опрошенных россиян поддержали введение маркировки ИИ-контента. 

В этом направлении Министерство цифрового развития, связи и массовых коммуникаций анонсировало разработку платформы для выявления дипфейков, созданных с применением ИИ.  Это стало частью стратегии национального проекта «Экономика данных», инициированного премьер-министром Михаилом Мишустином. По словам представителя Минцифры, рассмотрение возможности создания единой платформы для выявления фейковой информации, включая дипфейки, открывает новые перспективы в борьбе с дезинформацией. Однако для определения стратегии в решении этого вопроса требуется провести глубокие исследования для определения эффективных методов обнаружения и анализа поддельных материалов, созданных при помощи ИИ. Что вызывает сейчас бурные обсуждения в цифровой среде.

14 мая член комитета ГД по информполитике Антон Немкин сообщил,  что госдума начала разрабатывать законодательную инициативу по маркеровке контента, созданного нейросетями. Депутат также отметил, что законопроект разрабатывается совместно с экспертами и основываясь на опыте других стран. Каких именно экспертов и какие именно страны рассматриваются, как пример работы с маркировакой контента, созданного ИИ, Немкин не уточнил.

По словам Немкина, человеку важно иметь представление о том, с чем он имеет дело, отличать реальное от нереального, как и в случае с рекламой, - пользователя очень легко обмануть и завлечь куда-то, а задача государства не позволить это сделать. Депутат также поделился эстетической стороной вопросы, по его мнению маркировка может осуществляться при помощи графических или водяных знаков,она должна быть «ненавязчивой, но при том четкой и заметной для любогог пользователя».

В силу того, что пока не ясно, какая экспертиза позволит распознавать степень участия машины и человека в одном и том же тексте, российские ИИ-сервисы должны автоматически маркировать любые сгенерированные тексты. В первую очередь, задуматься над подобными технологиями цифровой маркировки изображений нужно российским компаниям, развивающим компетенции в области генеративных нейросетей - прежде всего, "Сберу" и "Яндексу", предложил Немкин.

Пока Немким акцентирует внимание на текстовом контенте, мы обратились к опыту других стран и посмотрели, какой именно ИИ контент больше всего нуждается в регулировании и маркеровки. В контексте информационной безопасности, обнаружение и маркировка дипфейков является основным фокусом у государтсв.

На сегодняшний день выявление дипфейков не автоматизировано и пока основано преимущественно на анализе контента специалистами по информационной безопасности и криминалистами в ручную. Ведущие IT-специалисты видят несколько вариантов для решения проблемы с дипфейками. Одним из предложенных решений является разработка плагина, который будет автоматически сканировать веб-сайты на наличие контента, созданного с использованием искусственного интеллекта. Однако вопрос о его интеграции в социальные сети и мессенджеры остается открытым, и зависит от готовности их владельцев к такому изменению.

В других странах уже ведутся разработки интеллектуальных систем для определения сгенерированного контента. Intel представил  технологию FakeCatcher для обнаружения дипфейков в реальном времени. Как заявляет производитель, детектор обладает точностью 96 % и анализирует цветовые изменения кожи, характерные только для настоящих людей. В процессе работы используются инструменты Intel, включая OpenVino, OpenCV и Deep Learning Boost.

Онлайн-инструмент Sensity обнаруживает поддельные лица на фото и видео с помощью методов глубокого обучения и судебной экспертизы.

Для эффективного мониторинга и обнаружения дипфейков в социальных сетях, возможно, потребуется разработка специализированного ПО или получение доступа к API платформ. Также обсуждается вопрос о внедрении водяных знаков как средства защиты от неправомерного использования ИИ-контента. Хотя при этом стоит учитывать, что для сервисов такая маркировка может оказаться невыгодной, если она не станет обязательной. Таким образом, необходимо провести дальнейшие обсуждения и принять соответствующие нормативные акты.

В зарубежном опыте уже есть примеры использования маркировки контента, созданного с применением ИИ. Например, в Китае маркировать ИИ-контент необходимо в популярном сервисе TikTok. В США еще в прошлом году власти пришли к соглашению с крупными разработчиками генеративного ИИ о маркировке сгенерированного в их сервисах контента. Так на YouTube создатели должны указывать, если их видео были сделаны с помощью ИИ. Платформа представила  новый инструмент в Creator Studio, который требует раскрытия информации об этом, если контент может быть воспринят зрителями как реальный. 

Трамп, Европа, два хохла

А как правильно: украинофоб или украиножер? Истерика среди европейских «ястребов», начавшаяся после победы Трампа на выборах в США, не только не думает затухать, но и продолжает уси...

Результаты мультикультурализма в России
  • pretty
  • Вчера 18:15
  • В топе

СЕРГЕЙ  МАРДАНИстория, которая должна была приключиться давным-давно, но произошла именно сейчас. Вопрос довольно простой. Кто эти юноши, завернутые в азербайджанские флаги и орущие аллахакбар и ...

Проблема добивания

В мире есть всего два государства, которые невозможно добить военным путём даже в случае победы над ними: Россия и США. Причина — наличие ядерных арсеналов и средств доставки, покрывающ...

Обсудить
  • 1. Современные нейросети – это не искусственный интеллект, а лишь имитация его с помощью больших баз данных и быстрых вычислений. Они не могут создавать принципиально новое, только комбинировать уже известное по заданным алгоритмам. 2. Человеческий мозг работает по принципиально другим механизмам, чем компьютер – за счет постоянного морфогенеза, образования новых нейронных связей. Этого пока не удается воссоздать в компьютерных системах. 3. Попытки создания искусственного интеллекта на основе биологических нейронных сетей пока безуспешны, так как не учитывают все особенности работы мозга. 4. Современные дети и подростки значительно уступают по уровню интеллекта своим сверстникам 30-40 лет назад, что связано с широким распространением гаджетов и облегчением мыслительной работы. 5. Развитие общества определяется не экономическими или политическими факторами, а "церебральным сортированием" – отбором наиболее интеллектуальных индивидов, способных создавать новые технологии. Вывод: несмотря на активное развитие искусственного интеллекта, пока не удается создать систему, которая была бы сопоставима с человеческим мозгом по способности к творчеству и саморазвитию. Для прогресса общества критически важно развивать интеллектуальный потенциал людей.