В августе 2025 года издание «Ведомости» сообщило о технологической инициативе Яндекса и Института системного программирования РАН: разработке метода стеганографической маркировки изображений, созданных с помощью нейросетей. Цель проекта — внедрение невидимых цифровых меток в графический ИИ-контент, позволяющих различать реальные и синтетические изображения. Это сообщение вызвало широкую дискуссию в экспертном сообществе. С одной стороны — это попытка технологического решения очевидной проблемы цифровой дезинформации, с другой — потенциальный шаг к более строгому нормативному регулированию ИИ-контента в России: https://www.vedomosti.ru/techn...

Данная статья рассматривает фактическую и правовую стороны проекта, его возможные последствия для пользователей, платформ и особенно для блогеров, а также предлагает прогноз о развитии правового ландшафта в этой сфере.
1. Технологическая суть инициативы
Разрабатываемая система предполагает встраивание в изображение стеганографических меток — невидимых человеческому глазу, но распознаваемых программным обеспечением. Это классическая концепция цифровой стеганографии, аналогичная системам цифровых водяных знаков, давно используемым для защиты авторских прав. Такие метки устойчивы к сжатию, масштабированию и другим типичным изменениям изображения, что делает их надёжным инструментом для идентификации происхождения.
Речь идет не о каком-то видимом «водяном знаке», который можно было бы закрасить или обрезать, а о микроскопическом артефакт‑маркере, который был бы заметен анализатору, но не человеческому глазу. Для того чтобы пользователи могли проверить, было ли изображение сгенерировано с помощью ИИ, «Яндекс» разрабатывает сервис по распознаванию маркировки, уточнил источник «Ведомостей», знакомый с ходом разработки
Целевое применение:
• проверка изображений в браузере (например, Яндекс.Браузер);
• автоматическая фильтрация или маркировка на платформах (например, Дзен);
• разграничение оригинального и ИИ-контента в поисковой выдаче.
Проблема, однако, заключается в универсальности подхода: если система будет охватывать только контент, созданный российскими генераторами, такими как "Шедеврум", но не распознавать продукцию Midjourney, DALL·E или Adobe Firefly, — она не сможет выполнять полноценную функцию стандарта.
2. Причины внедрения системы маркировки
2.1. Борьба с фейками и дипфейками
Развитие генеративного ИИ привело к резкому росту количества фальшивых визуальных материалов. От дипфейков с участием политиков до поддельных кадров катастроф или военных конфликтов — последствия могут быть серьёзными. Введение системы маркировки является реакцией на угрозу дезинформации.
2.2. Прозрачность и доверие пользователей
С ростом количества синтетического контента пользователи всё чаще задаются вопросом: можно ли верить увиденному? Инструмент, позволяющий определить происхождение изображения, может восстановить часть доверия к цифровым материалам.
2.3. Упрощение модерации контента
Контентные платформы сталкиваются с лавинообразным ростом объема ИИ-контента, не всегда качественного и часто вводящего в заблуждение. Система маркировки помогает автоматизировать модерацию и отбор материалов для рекомендаций.
2.4. Продвижение цифрового суверенитета
Инициатива укладывается в рамки государственной политики по усилению технологической независимости и контроля над информационным пространством. Создание собственного стандарта маркировки может стать основой национального подхода к регулированию ИИ.
3. Правовой анализ инициативы
3.1. Действующее законодательство
Закон «Об информации, информационных технологиях и о защите информации» (ФЗ-149)
Предусматривает:
• обязанность операторов обеспечивать достоверность и целостность обрабатываемой информации;
• возможность создания правовых механизмов верификации источников контента.
Маркировка ИИ-изображений прямо не предусмотрена, но соответствует духу закона в части информационной прозрачности.
Закон «О защите прав потребителей» (ФЗ-2300-1)
Потребитель должен получать достоверную информацию о товаре или услуге. Синтетическое изображение, выданное за реальное, может рассматриваться как введение в заблуждение. Маркировка — средство предупреждения подобных случаев.
Стратегия развития ИИ в РФ до 2030 года
Стратегия декларирует:
• развитие нормативной базы ИИ;
• обеспечение доверия к ИИ-системам;
• внедрение этических принципов в использование технологий.
Проект Яндекса — практическая реализация этих положений.
3.2. Возможные изменения законодательства
В ближайшие 1–2 года возможны следующие шаги:
• разработка ГОСТа или техрегламента по маркировке ИИ-контента;
• введение требований об обязательной маркировке при распространении ИИ-изображений на платформах с аудиторией более N человек;
• административная ответственность за публикацию ИИ-контента без маркировки в случаях, когда это может нанести вред (например, в политическом контексте);
• судебное признание немаркированного ИИ-контента как недостоверной информации.
Также не исключено появление требований маркировки текстов, созданных ИИ. Это особенно актуально для новостных ресурсов, блогов и маркетинговых площадок.
4. Последствия для блогеров и цифровых платформ
4.1. Возрастание нагрузки на авторов контента
Блогеры, использующие ИИ для создания изображений, могут быть обязаны:
• маркировать изображения;
• использовать только совместимые генераторы;
• следить за обновлениями законодательных требований.
Неисполнение может повлечь:
• снижение охвата из-за алгоритмов платформ;
• блокировку контента;
• административные санкции.
4.2. Новые требования к платформам
Платформам (например, Дзен, Рутуб, Telegram-каналам с монетизацией) может быть предписано:
• автоматически распознавать и маркировать ИИ-контент;
• информировать пользователей о характере изображений;
• ограничивать распространение недостоверного ИИ-контента.
4.3. Угроза монетизации и теневого банинга
Алгоритмы могут занижать в выдаче или рекомендациях материалы, созданные с помощью ИИ. Это может сказаться на доходах блогеров. Без прозрачных правил маркировки такие действия будут трудно оспоримы.
4.4. Юридическая ответственность
Если ИИ-контент будет использован в контексте клеветы, манипуляции общественным мнением или распространения фейков, блогер может нести ответственность, в том числе по:
• КоАП РФ (например, за распространение недостоверной информации);
• Закону «О фейках» (ФЗ-31-ФЗ, ст. 207.3 УК РФ), если последствия публикации были значительными.
5. Прогноз на 2025–2027 годы
Вероятные тенденции:
1. Создание национального реестра ИИ-контента с маркировкой.
2. Внедрение стандартов маркировки, совместимых с международными практиками (например, с инициативами Meta, OpenAI и Adobe).
3. Обязательное информирование пользователей при просмотре ИИ-материалов на платформах.
4. Рост числа судебных дел с участием ИИ-контента, включая авторское право, вред репутации, дезинформацию.
5. Переход блогеров на более прозрачную модель контента — с раскрытием, где использовались генеративные модели.
Инициатива Яндекса и ИСП РАН по внедрению стеганографической маркировки нейросетевых изображений — это важный шаг в сторону осознанного и регулируемого использования ИИ в цифровом пространстве. Несмотря на технологические и юридические вызовы, её появление может стать основой для будущего законодательства в сфере ИИ-контента.
Для блогеров и создателей контента это означает необходимость следить за развитием нормативной базы, корректировать практики использования ИИ, обеспечивать прозрачность для аудитории и быть готовыми к новым юридическим требованиям. Учитывая темпы развития регулирования в России, уже в ближайшие годы маркировка ИИ-контента может стать не просто технической возможностью, а обязательной правовой нормой.
Оценили 6 человек
9 кармы