Дополнительно

блог

Закон об ИИ в России: маркировка, категории моделей и ответственность бизнеса

18 марта 2026 года Минцифры опубликовало проект федерального закона об основах регулирования искусственного интеллекта (regulation.gov.ru). Предполагаемая дата вступления — 1 сентября 2027 года. Закон обязывает маркировать весь ИИ-контент, вводит три категории моделей (суверенные, национальные, доверенные) и распределяет ответственность между разработчиками, операторами и пользователями. Для бизнеса, использующего нейросети в продуктах или маркетинге, это первый рамочный закон, определяющий правила игры.

Когда вступит в силу закон об ИИ в России?

Предполагаемая дата вступления — 1 сентября 2027 года (проект Минцифры от 18.03.2026). Законопроект опубликован на федеральном портале нормативных правовых актов. Общественное обсуждение продлится до 15 апреля 2026 года. В Государственную Думу документ пока не внесён.

Закон определяет пять категорий участников: разработчик ИИ-модели, оператор ИИ-системы, владелец ИИ-сервиса, пользователь ИИ-сервиса и правообладатель.

Искусственный интеллект определён как «технологии, имитирующие когнитивные функции, включая самообучение, с результатами, сопоставимыми или превосходящими человеческие» (проект Минцифры).

Какие категории ИИ-моделей вводит закон?

Три категории с разным уровнем доступа к государственным системам (проект Минцифры от 18.03.2026):

  • Суверенные модели — все стадии разработки и обучения проведены в России, на российских данных, под управлением российских граждан или юридических лиц с долей не менее 50%.
  • Национальные модели — аналогичные требования с акцентом на управление российскими резидентами.
  • Доверенные модели — прошли проверку ФСБ и ФСТЭК, допущены к государственным информационным системам и объектам критической инфраструктуры, внесены в специальный реестр.

Для бизнеса реестр доверенных моделей критически важен: без включения в него западные и незарегистрированные модели (OpenAI, Anthropic, Google) будут отстранены от госконтрактов и объектов критической информационной инфраструктуры.

Как должна выглядеть маркировка ИИ-контента по новому закону?

Обязательная маркировка распространяется на все типы контента: фото, видео, аудио и текст (проект Минцифры от 18.03.2026). Удаление маркировки — административное правонарушение.

Формат маркировки двойной. Первый — человекочитаемое информационное предупреждение (надпись «Создано ИИ» или аналог). Второй — машиночитаемые метаданные, встроенные в файл контента.

Платформы с аудиторией свыше 100 000 пользователей в сутки обязаны проверять наличие маркировки. Если маркировка отсутствует — маркировать контент самостоятельно или удалять.

Платформы с аудиторией свыше 500 000 пользователей дополнительно выполняют функции организатора информации в интернете, обязаны хранить данные по «закону Яровой» и иметь российское представительство.

Кого затронет закон об ИИ и как повлияет на бизнес?

Закон затрагивает четыре категории бизнеса: маркетинг, SaaS-продукты, контент-генерация и операторы ИИ-систем (проект Минцифры от 18.03.2026).

Маркетинг с нейросетями. Весь рекламный контент, созданный с помощью ИИ, требует маркировки. Таргетированная реклама с ИИ-оптимизацией рискует попасть под понятие «эксплуатации уязвимостей человека» — формулировка в законопроекте намеренно широкая.

SaaS-продукты. Сервисы с аудиторией свыше 500 000 пользователей в России: локализация данных на территории РФ, российское юридическое лицо или представительство. Все сервисы обязаны уведомлять пользователей о взаимодействии с ИИ и обеспечивать право на объяснение автоматического решения.

Контент-генерация. Студии, агентства и медиакомпании, использующие нейросети для создания контента, обязаны маркировать результат. Разработчики генеративных моделей обязаны блокировать генерацию противоправного контента.

Операторы ИИ-систем. Ведение реестра инцидентов, регулярное тестирование безопасности, приостановка работы системы при обнаружении угрозы.

Как распределяется ответственность за ИИ между разработчиком и пользователем?

Принцип — «соразмерно степени вины» каждого участника цепочки (проект Минцифры от 18.03.2026).

Презумпция виновности: разработчик, оператор и владелец сервиса несут ответственность, если «знали или должны были знать» о возможности незаконного результата.

Защита: доказанное принятие «исчерпывающих мер» по предотвращению вреда. Оператор вправе взыскать убытки с разработчика.

Пользователи отвечают за результаты своих умышленных действий и нарушение условий использования.

Отдельные поправки в Уголовный кодекс (опубликованы 26 августа 2025 года) предусматривают штрафы до 2 млн рублей и лишение свободы до 15 лет за преступления с применением ИИ. Эти цифры относятся к сопутствующим поправкам в кодексы, а не к рамочному законопроекту.

Кому принадлежат права на контент, сгенерированный ИИ?

Права на ИИ-контент принадлежат пользователю — при наличии «оригинального творческого вклада» (проект Минцифры от 18.03.2026). Что считается «достаточным» вкладом, закон не уточняет. Промпт-инжиниринг может оказаться недостаточным.

Обучение моделей. Разработчикам разрешено использовать охраняемые авторским правом произведения для обучения ИИ без согласия правообладателя — при условии законного доступа к материалам. Механизм opt-out (запрета правообладателя) не предусмотрен.

Практическая рекомендация. В договорах с разработчиками и заказчиками прямо согласовывать принадлежность результатов интеллектуальной деятельности, созданных с помощью ИИ.

Чем российский закон об ИИ отличается от EU AI Act?

Два ключевых отличия: философия и размер штрафов.

Философия. Российский закон — технологический суверенитет. EU AI Act — защита прав человека.

Классификация рисков. Россия — размытые понятия. ЕС — четыре уровня: запрещённый, высокий, ограниченный, минимальный.

Штрафы. Россия — отсылка к УК и КоАП, до 2 млн рублей. ЕС — до 35 млн евро или 7% мирового оборота (EU AI Act, 2024).

Обучающие данные. Россия — разрешено без opt-out. ЕС — разрешено, но правообладатель вправе запретить.

Территориальный охват. Россия — российские операции плюс сервисы с 500 000+ пользователями. ЕС — глобально, для любого, работающего с данными резидентов.

Что делать бизнесу до вступления закона в силу: пошаговый план

До сентября 2027 года — пять шагов для подготовки.

  1. Провести аудит ИИ-инструментов. Составить реестр всех нейросетей, используемых в бизнес-процессах: генерация контента, обработка обращений, аналитика, рекомендации.
  2. Начать маркировку добровольно. Платформы (ВКонтакте, Яндекс.Дзен) уже внедряют собственные механизмы распознавания ИИ-контента. При вступлении закона в силу переход будет проще.
  3. Пересмотреть договоры. Включить положения о принадлежности ИИ-результатов, ответственности за контент, праве на объяснение автоматического решения.
  4. Защитить собственные ИИ-продукты. Инструменты: патент на способ (алгоритм как техническое решение), ноу-хау (режим коммерческой тайны), договорная фиксация принадлежности прав. Авторское право на ИИ-результат — слабый инструмент.
  5. Следить за реестром доверенных моделей. Если бизнес работает с госзаказчиками или критической инфраструктурой — готовиться к переходу на модели из реестра.

Часто задаваемые вопросы

Когда закон об ИИ вступит в силу?

Предполагаемая дата — 1 сентября 2027 года. Законопроект опубликован 18 марта 2026 года Минцифры и находится на стадии общественного обсуждения (regulation.gov.ru).

Нужно ли маркировать ИИ-контент уже сейчас?

Формально — нет, закон не принят. Практически — рекомендуется: платформы (ВКонтакте, Яндекс.Дзен) уже внедряют собственные механизмы распознавания ИИ-контента (vc.ru).

Можно ли использовать ChatGPT и другие иностранные модели после вступления закона?

Для коммерческого использования — да, с ограничениями. Для госконтрактов и критической инфраструктуры — только модели из реестра доверенных, проверенные ФСБ и ФСТЭК (проект Минцифры).

Кому принадлежат права на текст, сгенерированный нейросетью?

Пользователю — при наличии оригинального творческого вклада. Что считается «достаточным» вкладом, закон не уточняет (проект Минцифры). Промпт может оказаться недостаточным.

Могут ли правообладатели запретить использование их произведений для обучения ИИ?

По российскому законопроекту — нет, механизм opt-out не предусмотрен. По EU AI Act — да, правообладатель вправе запретить (EU AI Act, 2024).

Какие штрафы предусмотрены за нарушения в сфере ИИ?

Рамочный закон отсылает к УК и КоАП. Сопутствующие поправки предусматривают штрафы до 2 млн рублей и лишение свободы до 15 лет за преступления с применением ИИ. Штрафы за удаление маркировки и нарушение требований к платформам будут установлены подзаконными актами.

Должен ли бизнес уведомлять пользователей об использовании ИИ?

Да. Все сервисы обязаны уведомлять пользователей о взаимодействии с ИИ и обеспечивать право на объяснение автоматического решения (проект Минцифры).

    По бесплатному номеру
    8 (800) 775-88-40
    вы получите профессиональные ответы от опытного юриста
    на любые 5 вопросов!

    Звоните сейчас!

    Позвонить