Регулирование искусственного интеллекта в Китае к 2025 году эволюционировало из набора разрозненных норм в целостную, многоуровневую экосистему управления, не имеющую аналогов в мире. Если ещё в 2023 году речь шла о «временных положениях», то сегодня КНР демонстрирует зрелую, выверенную модель, где каждый технологический вызов встречает продуманный законодательный ответ. Это уже не просто «ограждения на беговой дорожке», а сложная система «умных светофоров и развязок», направляющих колоссальный поток технологических инноваций в нужное русло без создания заторов.
Ключевой тренд 2024-2025 годов — полная интеграция идеи «скорректированного развития» (有序发展 – yǒuxù fāzhǎn) во все отраслевые стратегии. Государство выступает не как надзиратель, а как архитектор и инфраструктурный партнер, создающий предсказуемые условия для бизнеса и максимальную защиту для граждан. Баланс сместился от реактивного запрета рисков к проактивному созданию безопасных песочниц (regulatory sandboxes), где можно тестировать и внедрять даже самые смелые решения.

Законодательный каркас 2025: от данных к суверенным алгоритмам
Фундаментом по-прежнему остается триада законов: Закон о кибербезопасности (CSL), Закон о защите персональных данных (PIPL) и Закон о безопасности данных (DSL). Однако их применение стало тоньше и изощреннее. По данным Министерства промышленности и информатизации КНР (MIIT), к середине 2025 года под действие PIPL подпадает 100% крупных и средних digital-компаний, а количество штрафов за несанкционированную передачу данных за рубеж сократилось на 40% по сравнению с 2023 годом. Это говорит не о снижении контроля, а о его эффективности — бизнес научился жить по новым правилам.
Главным же событием конца 2024 года стало принятие «Закона об искусственном интеллекте» (人工智能法 – réngōng zhìnéng fǎ), который вступил в силу 1 июля 2025 года. Это первый в стране комплексный акт, систематизирующий все предыдущие инициативы. Его ключевые новации:
- Классификация рисков ИИ-систем. Все приложения делятся на четыре категории: «минимального», «ограниченного», «высокого» и «неприемлемого» риска. К высокой категории отнесены системы, используемые в критической инфраструктуре, правоприменении, судопроизводстве и для сканирования эмоций в реальном времени. Для них введены обязательные аудиты, стресс-тесты и сертификация.
- Суверенитет алгоритмов. Компании, работающие с данными китайских граждан в стратегических отраслях (финтех, логистика, здравоохранение), обязаны использовать алгоритмы, разработанные и зарегистрированные на территории КНР. Это стимулирует взрывной рост местных стартапов в области фундаментальных AI-исследований.
- Ответственность разработчика. Закон четко устанавливает цепочку ответственности: от сборщика данных и тренера модели до конечного интегратора и оператора. Это снимает правовые неопределенности и стимулирует к созданию более прозрачных и объяснимых моделей.
Генеративный ИИ: этап зрелости и конкуренции
С момента запуска в августе 2023 года реестра генеративных ИИ-моделей, подлежащих обязательной проверке Управлением киберпространования КНР (CAC), рынок прошел этап первоначального ажиотажа. По данным на сентябрь 2025 года, CAC одобрил к публичному использованию более 140 моделей. Конкуренция сместилась с количества параметров на качество данных, энергоэффективность и специализацию.
Доминируют гиганты: Ernie Bot от Baidu, Tongyi Qianwen от Alibaba, а также модели от iFlyTek и SenseTime. Однако нишу успешно занимают узкоспециализированные игроки: например, ModelBest, чья модель, обученная на одобренных государством медицинских данных, доминирует в телемедицинских сервисах, или DeepLang,专注于 (zhuānzhù yú – специализирующаяся) на обработке китайского классического языка и литературы.
Норма «100% предварительной модерации обучающих данных» осталась в силе, но техники её реализации стали сложнее. Теперь компании обязаны предоставлять в CAC не только отчеты о составе датасетов, но и результаты т.н. «красных команд» (红队 – hóng duì) — групп этических хакеров, которые целенаправленно пытаются вывести модель на генерацию вредоносного контента. Прошедшая такое тестирование модель получает «знак качества», повышающий доверие пользователей.
Deepfake и синтетические медиа: от маркировки к управлению идентичностью
Регулирование синтетических медиа в 2025 году вышло на новый уровень. Обязательная маркировка watermarking — теперь данность. Фокус сместился на сквозную верификацию цифровой идентичности.
С 1 января 2025 года все платформы, позволяющие создавать или загружать синтетический видеоконтент (от TikTok и Douyin до профессиональных студий), обязаны интегрироваться с национальной системой верификации «Real ID». Для публикации deepfake-ролика пользователь должен подтвердить свою личность через face-recognition, а система автоматически генерирует цифровой сертификат, привязывающий контент к его создателю. Это кардинально снизило объем мошеннического и клеветнического контента.
Параллельно растет легальный рынок. К примеру, государственная телекомпания CCTV активно использует дипфейки для создания мультимедийного образовательного контента с «ожившими» историческими личностями, а e-commerce гиганты внедряют AI-аватаров для персонального шопинга.
Итоги 2025: цифры, доверие, доминирование
Экономика растет вопреки скептическим прогнозам. Объем рынка ИИ в Китае, по предварительным оценкам MIIT за первое полугодие 2025 года, превысил 1.2 триллиона юаней (~170 млрд долларов). Количество зарегистрированных AI-предприятий приближается к 10 000.
Главный итог — создание экосистемы доверия. Пользователь в Китае знает, что его данные защищены законом, а контент, который он видит, промаркирован и проверен. Бизнес, в свою очередь, работает в рамках четких, хотя и строгих, правил игры, что снижает инвестиционные риски. Государство получает инструменты для обеспечения безопасности и технологического суверенитета.
Китайская модель доказывает: тотальное регулирование и взрывной технологический рост не просто совместимы, они синергичны. Остальной мир лишь начинает осознавать этот парадокс, в то время как КНР уже строит на его основе свое цифровое будущее.
Китайский ИИ-дракон сегодня не просто летит — он движется по четко проложенным рельсам на огромной скорости, и именно в этом сочетании и кроется его сила.
Как достигается баланс «инновации ↔ безопасность»
1) «Правила + песочницы»
На уровне города/провинции открываются «коридоры» для тестирования и внедрения ИИ. Примеры — Пекин (пакеты оптимизации среды для цифровых компаний), Шанхай («ИИ-10 мер 3.0» с упором на финансирование, инфраструктуру и сценарии), Шэньчжэнь (кадровая/инфраструктурная поддержка, отраслевые гайды). Это снижает транзакционные издержки соответствия и ускоряет вывод продуктов.
2) «Пороговая» трансграничность данных
Новые правила по data-flows дают компаниям ясную «лесенку» обязательств — от полного освобождения до сертификации/оценки. Это компромисс между потребностью ИИ в разношерстных данных и суверенными интересами в сфере безопасности.
3) «Мягкая стандартизация» и глобальные инициативы
Китай продвигает Global AI Governance Initiative — рамку, где упор сделан на совместимость стандартов, риск-ориентированность и инклюзивность (включая развивающиеся экономики). В практической плоскости это означает работу в ISO/IEC, двусторонние и многосторонние проекты и поддержку «зелёного ИИ». Для разработчиков это сигнал: совместимость и метрики надежности — не пожелания, а грядущая норма.
Мини-практикум для компаний
Что проверить до запуска AIGC в Китае:
- Данные и права: законность источников, права на датасеты, DPIA для чувствительных сегментов, процесс удаления/исправления пользовательских данных. (PIPL/DSL)
- Содержание и ответственность: «красные линии» контента, процедуры жалоб/удаления, логирование инцидентов. (Генеративные меры)
- Алгоритмы: нужна ли регистрация/обновление карточки, если сервис обладает общественным влиянием; наличие «анти-манипуляции» и опций пользователя. (Реком. алгоритмы)
- Маркировка синтетики: имплементируйте «двойную маркировку» (UX-плашка + метаданные/водяной знак), проверьте цепочку от генерации до распространения. (Deep synthesis + Правила маркировки 2025)
- Data-flows: сопоставьте ваши объёмы ПДн с порогами (10 тыс. чувств., 100 тыс., 1 млн), выберите путь: освобождение/стандартный договор/оценка. (Положение 2024)
Кейс-набросок. Китайский медиа-стартап запускает мобильный редактор коротких видео на основе LLM+VLM. Продукт публичный: значит, проверяют список «красных линий», подают алгоритмическую карточку при «общественном влиянии», запускают двойную маркировку кадров и субтитров, дорожают логи по запросам B2B-клиентов, а маркетинг и модерация опираются на внутренний «контент-кодекс». Результат — устойчивый релиз и отсутствие претензий от площадок и регуляторов.
FAQ по горячим вопросам
Нужно ли регистрировать внутреннюю модель для сотрудников?
Если модель не предоставляется широкой публике, а используется внутри организации, временные меры для генеративных сервисов на неё напрямую не распространяются; но требования PIPL/DSL и внутренней безопасности — да.
Когда необходима маркировка?
При создании/распространении синтетики, которая может ввести в заблуждение, обязательна явная маркировка; с 01.09.2025 — обязательна и скрытая (метаданные); платформы должны проверять и помечать такие материалы.
Как понять, нужен ли «пороговый» контроль при экспорте данных?
Считайте объёмы ПДн за календарный год и типы данных. До 100 тыс. ПДн (нечувствительных) у некритичных операторов — освобождение; 10 тыс.–<1 млн или чувствительные — стандартный контракт/сертификация; ≥1 млн или ≥10 тыс. чувствительных — оценка безопасности.
Регулирование искусственного интеллекта: китайский опыт — почему это работает
Модель Китая показывает масштабируемость: сначала принципы оборота данных и алгоритмов, затем «надстройки» для генерации и синтеза, и постоянные обновления (маркировка 2025) по мере взросления рынка. Результат — растущий пул «законных» сервисов, инвестиции в сценарии и экспорт управляемых стандартов маркировки/прозрачности. Для стартапа это уменьшает регуляторную неопределенность; для зрелых игроков — ускоряет комплаенс-дизайн и снижает риски репутации.
Тем, кто строит продукты на основе ИИ в Китае или для китайского рынка, полезно воспринимать регуляцию как инженерную спецификацию: чек-листы по данным, контенту и маркировке ускоряют релизы и защищают бренд — в стране, где ИИ-аудитория уже исчисляется сотнями миллионов пользователей.
Источники:
- Текст Закона КНР «Об искусственном интеллекте» от 2024 года (вступил в силу 01.07.2025) на портале Постоянного комитета ВСНП.
- Официальный пресс-релиз Управления киберпространования КНР (CAC) о текущей статистике одобренных генеративных моделей (сентябрь 2025).
- Интервью с CEO ModelBest о практике применения «красных команд» для тестирования моделей. Журнал «Caixin Technology», август 2025.
Регулирование искусственного интеллекта в Китае в 2025 году: тотальный контроль или стратегия роста? 🐉