Закон об ИИ в России простыми словами: маркировка контента и права граждан

19 марта 2026 |

Минцифры опубликовало проект федерального закона о регулировании искусственного интеллекта в России. Маркировка ИИ-контента станет обязательной, дискриминационные алгоритмы попадут под запрет, а за вред от нейросетей придется отвечать конкретным людям и компаниям. Вступление в силу запланировано на 1 сентября 2027 года. Разбираемся, что внутри документа и кого он затронет.

Закон об ИИ в России

Подписаться на Яблык в Telegram — только полезные инструкции для пользователей iPhone, iPad и Mac t.me/yablykworld.

 

 

Содержание статьи

 

Коротко о законопроекте

Министерство цифрового развития России опубликовало проект федерального закона о государственном регулировании искусственного интеллекта. Документ впервые закрепляет на законодательном уровне само понятие ИИ, устанавливает права и обязанности всех участников рынка и вводит обязательную маркировку контента, созданного нейросетями.

Планируемая дата вступления в силу — 1 сентября 2027 года. То есть у индустрии есть чуть больше двух лет, чтобы подготовиться.

«Он позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов», — заявили в Минцифры.

О деталях законопроекта также сообщили в аппарате вице-премьера Дмитрия Григоренко.

По сути, Россия идет по пути Евросоюза, который в 2024 году принял свой AI Act — первый в мире комплексный закон об ИИ. Но российский вариант имеет ряд принципиальных отличий, главное из которых — требование разрабатывать и обучать модели ИИ на территории страны.

 

Риск-ориентированный подход: что это значит простыми словами

Законопроект предлагает не стричь все ИИ-системы под одну гребенку. Вместо этого вводится риск-ориентированный подход — требования к конкретной системе зависят от того, насколько сильно она влияет на жизнь человека.

Логика простая. Нейросеть, которая подбирает вам плейлист в музыкальном приложении, — это одна история. Алгоритм, который решает, выдать вам кредит или нет, — совсем другая. А система, управляющая медицинской диагностикой или работой критической инфраструктуры, — третья. И регулироваться они должны по-разному.

Этот подход заимствован из европейского AI Act, где все ИИ-системы делятся на четыре уровня риска: минимальный, ограниченный, высокий и неприемлемый. Конкретная классификация уровней в российском законопроекте пока обсуждается, но принцип тот же — чем выше потенциальный вред, тем строже контроль.

По моему опыту общения с разработчиками, именно такой подход вызывает меньше всего возражений у индустрии. Никто не хочет, чтобы генератор стикеров для мессенджера проходил ту же сертификацию, что и система управления беспилотным транспортом.

 

Суверенный, национальный, доверенный ИИ — три новых понятия

Законопроект вводит три категории моделей искусственного интеллекта. Звучит бюрократично, но за каждым термином стоит конкретный смысл.

 

Суверенная модель ИИ

Модель, полностью разработанная и обученная на территории России с использованием отечественных данных и инфраструктуры. Максимальная независимость от зарубежных технологий.

 

Национальная модель ИИ

Модель, созданная с учетом российских интересов, но допускающая использование некоторых иностранных компонентов. Промежуточный вариант.

 

Доверенная модель ИИ

Модель, прошедшая проверку на безопасность и соответствие требованиям закона. Своего рода знак качества — «этой нейросети можно доверять».

Ключевое требование: разработка и обучение моделей ИИ должны проходить на территории Российской Федерации. Это серьезное ограничение, которое может затронуть международные компании, работающие на российском рынке. Условные ChatGPT, Gemini или Apple Intelligence обучаются на серверах в США — по логике законопроекта, они не смогут получить статус суверенной или национальной модели.

 

Обязательная маркировка ИИ-контента: фото, видео, аудио

Одна из самых заметных для обычного пользователя норм — обязательная маркировка контента, созданного с помощью ИИ. Если фото, видео или аудио сгенерировано нейросетью, это должно быть явно обозначено.

Зачем? Причин масса. Дипфейки становятся все убедительнее. ИИ-сгенерированные голоса уже сейчас используют мошенники для звонков «от имени родственников». Фальшивые фотографии и видеозаписи могут влиять на общественное мнение. Маркировка — попытка хотя бы частично решить проблему доверия к контенту.

На практике реализация может оказаться непростой. Как маркировать картинку, если пользователь сгенерировал ее в Midjourney, скачал на телефон и выложил в соцсеть? Кто несет ответственность — генератор, платформа или пользователь? Эти вопросы законопроект, судя по доступной информации, пока решает рамочно, оставляя детали для подзаконных актов.

Стоит отметить, что крупные компании уже движутся в эту сторону добровольно. Apple внедряет метаданные C2PA (Coalition for Content Provenance and Authenticity) для пометки изображений, обработанных ИИ. Google и Meta делают то же самое. Так что технологическая база для маркировки уже существует — вопрос в том, как сделать ее обязательной и контролируемой.

 

Права граждан: как оспорить решение нейросети

Пожалуй, самая важная часть для обычных людей. Законопроект дает гражданам два серьезных инструмента.

Право на обжалование. Если государственный орган или госкомпания приняли решение с использованием ИИ — например, отказали в госуслуге или начислили штраф — гражданин сможет оспорить это решение в досудебном порядке. Не нужно сразу идти в суд. Достаточно подать жалобу, и ее обязаны рассмотреть.

Право на компенсацию вреда. Если ИИ-система причинила вред из-за неправомерного использования, гражданин имеет право на компенсацию. Это может касаться самых разных ситуаций — от ошибочного отказа в кредите до утечки персональных данных через ИИ-сервис.

На практике в разных странах подобные нормы работают с переменным успехом. В ЕС, например, статья 22 GDPR уже дает право не подчиняться полностью автоматизированным решениям. Но воспользоваться этим правом умеют единицы — большинство людей просто не знают о его существовании. Хочется верить, что российский закон будет сопровождаться нормальным информированием населения, а не останется юридической формальностью.

 

Обязанности разработчиков и операторов ИИ-систем

Законопроект накладывает конкретные обязательства на тех, кто создает и эксплуатирует ИИ-системы.

 

Для разработчиков

  • Исключать дискриминационные алгоритмы — нейросеть не должна принимать решения на основе пола, возраста, национальности и других защищенных характеристик.
  • Блокировать создание противоправного контента — от призывов к насилию до детской порнографии.
  • Обеспечивать прозрачность работы модели в той мере, в какой это технически возможно.

 

Для операторов (тех, кто внедряет ИИ в свои продукты и сервисы)

  • Тестировать системы на безопасность перед запуском.
  • Информировать пользователей об ограничениях ИИ-системы — честно говорить, что нейросеть может ошибаться.
  • Обеспечивать возможность человеческого контроля над критическими решениями.

Требование убрать дискриминацию из алгоритмов звучит правильно, но на практике это одна из самых сложных задач в машинном обучении. Нейросети учатся на данных, и если в обучающей выборке есть предвзятость (а она есть почти всегда), модель ее воспроизведет. Полностью «очистить» алгоритм от предубеждений — задача, над которой бьются лучшие исследователи мира. Закон может обязать стремиться к этому, но гарантировать результат — вряд ли.

Кто будет отвечать, если ИИ навредит

Один из самых острых вопросов в регулировании ИИ: кто виноват, когда что-то идет не так?

Законопроект предлагает распределять ответственность между четырьмя сторонами:

  • Разработчик модели — тот, кто создал нейросеть.
  • Оператор системы — тот, кто внедрил ее в конкретный продукт.
  • Владелец сервиса — тот, кто предоставляет конечный сервис пользователю.
  • Пользователь — тот, кто использовал ИИ-систему.

Ответственность распределяется «соразмерно степени вины». Формулировка разумная, но в реальных спорах определить эту самую «степень» будет непросто.

Представьте ситуацию: разработчик создал языковую модель, оператор внедрил ее в чат-бот для консультирования пациентов, владелец клиники запустил сервис, а пациент последовал совету бота и ему стало хуже. Кто виноват? Разработчик, который не предусмотрел медицинские ограничения? Оператор, который не настроил фильтры? Клиника, которая доверила консультации нейросети? Пациент, который не обратился к живому врачу?

Судебная практика по таким делам будет формироваться годами. Но сам факт того, что закон хотя бы обозначает рамку ответственности, — уже шаг вперед. В большинстве стран этот вопрос до сих пор висит в правовом вакууме.

 

Как закон повлияет на Siri, Apple Intelligence и другие зарубежные ИИ-сервисы

А теперь к тому, что волнует читателей нашего сайта напрямую. Siri и Apple Intelligence — комплекс ИИ-функций, который Apple активно внедряет в iPhone, iPad и Mac — обучается и работает на серверах за пределами России. Требование законопроекта о разработке и обучении моделей на территории РФ может создать серьезные препятствия для таких сервисов.

Впрочем, Apple Intelligence до сих пор официально не поддерживает русский язык, так что для российских пользователей это пока скорее теоретическая проблема. Но если Apple когда-нибудь доберется до русскоязычной локализации своего ИИ, законодательные ограничения могут стать одним из барьеров.

То же касается ChatGPT от OpenAI, Google Gemini, Anthropic Claude и других зарубежных ИИ-сервисов. Формально они уже доступны российским пользователям (с оговорками), но после вступления закона в силу условия их работы могут измениться.

С другой стороны, для российских разработчиков — Яндекса с его YandexGPT, Сбера с GigaChat и других — закон может стать конкурентным преимуществом. Если их модели получат статус «доверенных» или «национальных», это даст им привилегированное положение на рынке госзаказа и в работе с государственными структурами.

До 1 сентября 2027 года законопроект пройдет общественное обсуждение, межведомственные согласования и рассмотрение в Государственной Думе. Текст наверняка изменится — возможно, существенно. Но направление понятно: Россия берет курс на системное регулирование искусственного интеллекта с акцентом на цифровой суверенитет.

 

Часто задаваемые вопросы

Когда вступит в силу закон об ИИ в России?

Планируемая дата — 1 сентября 2027 года. До этого момента законопроект должен пройти общественное обсуждение, согласование между ведомствами и голосование в Государственной Думе. Итоговый текст может отличаться от текущей редакции.

 

Что такое обязательная маркировка ИИ-контента?

Законопроект требует, чтобы фото, видео и аудио, созданные с помощью искусственного интеллекта, были явно помечены. Это нужно для того, чтобы пользователи могли отличить реальный контент от сгенерированного нейросетями — особенно актуально в контексте дипфейков и ИИ-фейков.

 

Можно ли будет оспорить решение ИИ в госорганах?

Да. Законопроект прямо предусматривает право граждан оспаривать решения государственных органов и госкомпаний, принятые с использованием ИИ, в досудебном порядке. Также предусмотрено право на компенсацию вреда, причиненного неправомерным использованием ИИ.

 

Запретят ли ChatGPT и другие зарубежные нейросети в России?

Прямого запрета в законопроекте нет. Однако требование о разработке и обучении моделей ИИ на территории РФ может ограничить возможности зарубежных сервисов для работы с государственными структурами и получения статуса «доверенной» модели. Для обычных пользователей доступ, скорее всего, сохранится.

 

Кто несет ответственность, если ИИ причинит вред?

Законопроект распределяет ответственность между четырьмя сторонами: разработчиком модели, оператором системы, владельцем сервиса и пользователем. Степень ответственности каждого определяется соразмерно его вине в конкретной ситуации.

 

Как закон об ИИ повлияет на Яндекс, Сбер и других российских разработчиков?

Для российских компаний закон может стать конкурентным преимуществом. Если их модели (YandexGPT, GigaChat и другие) получат статус суверенных или доверенных, это даст им привилегированное положение в госзакупках и при работе с государственными структурами.

 

Будет ли закон распространяться на Apple Intelligence и Siri?

Закон будет распространяться на все ИИ-системы, работающие на территории России. Поскольку Apple Intelligence обучается за пределами РФ и пока не поддерживает русский язык, непосредственное влияние будет минимальным. Но если Apple запустит свои ИИ-функции для российских пользователей, ей придется учитывать требования нового закона.

 

Что значит «дискриминационные алгоритмы» и как их запретят?

Дискриминационный алгоритм — это ИИ-система, которая принимает решения на основе пола, возраста, национальности или других защищенных характеристик. Например, если нейросеть отказывает в кредите людям определенной национальности. Разработчики обязаны выявлять и устранять такие предвзятости, хотя на практике это крайне сложная техническая задача.

 

Чем российский закон об ИИ отличается от европейского AI Act?

Оба документа используют риск-ориентированный подход и предусматривают маркировку ИИ-контента. Но российский законопроект делает акцент на цифровом суверенитете — требует разработки и обучения моделей на территории страны и вводит понятия суверенного и национального ИИ. В европейском AI Act таких требований нет.

🔥 Смотрите также:

Дмитрий Михневич
Создатель и главный редактор yablyk.com. Помогаю разбираться с устройствами Apple с 2009 года. Эксперт по iOS и macOS. Автор более 5000 статей и инструкций для пользователей iPhone, iPad и Mac. Закончил БНТУ. Меломан. В прошлом участник музыкального коллектива. Люблю путешествовать и фотографировать.
Задать вопрос

Читайте «Яблык» в  Telegram и смотрите в YouTube