Китай расширяет этическую базу ИИ: обязательная маркировка контента и прозрачность алгоритмов
Регуляторный аппарат Пекина ужесточает контроль над алгоритмами Big Tech: новые обязательные директивы требуют маркировки ИИ-контента, механизмов отключения персонализации и соответствия «базовым социалистическим ценностям».
Ключевые выводы
Китай принял обязательные правила маркировки ИИ-контента и прозрачности алгоритмов, выстраивая мозаичную систему регулирования — в отличие от монолитного AI Act ЕС. Инкрементальный подход позволяет адаптировать регуляцию по мере развития технологий.
Китай значительно расширил нормативную базу управления искусственным интеллектом, приняв всеобъемлющий пакет этических директив и правил регулирования алгоритмов, налагающих новые требования прозрачности и подотчётности на технологических гигантов страны. Обновлённая база, развивающая нормы 2022 года, создаёт один из наиболее комплексных — и предписывающих — подходов к управлению ИИ в мире.
Мозаичный подход с всеобъемлющим охватом
В отличие от подхода Евросоюза с единым AI Act, Китай разработал мозаику взаимосвязанных регуляций, нацеленных на конкретные применения ИИ: правила для рекомендательных алгоритмов, технологий глубокого синтеза (включая дипфейки) и сервисов генеративного ИИ — каждое со своими требованиями комплаенса, процедурами регистрации и механизмами принуждения.
Управление киберпространства Китая (CAC) осуществляет надзор за нормативной базой, которая теперь требует формальной регистрации любого алгоритма, способного влиять на «общественное мнение» или создавать «социальную мобилизацию». Это требование даёт Пекину прямой контроль над ИИ-системами, формирующими информационные потоки в интернет-экосистеме Китая.
Ключевые требования к технологическим компаниям
- Весь ИИ-генерированный контент должен иметь явную маркировку и метаданные для отслеживания (обязательно с сентября 2025)
- Пользователи должны быть информированы об использовании алгоритмов и иметь возможность отключить персонализированные рекомендации
- Алгоритмы, влияющие на общественное мнение, подлежат обязательной регистрации в CAC
- ИИ-системы должны соответствовать «базовым социалистическим ценностям»
Контраст с западными подходами
Китайская нормативная база отличается от западных подходов как по масштабу, так и по намерению. Если AI Act ЕС и формирующееся американское регулирование фокусируются преимущественно на безопасности, предвзятости и прозрачности, то китайская база явно включает политические и идеологические цели наряду с техническими требованиями. Мандат о соответствии ИИ-систем «базовым социалистическим ценностям» не имеет аналогов в западном регулировании ИИ.
| Юрисдикция | Подход | Ключевые требования | Правоприменение |
|---|---|---|---|
| Китай | Мозаика для конкретных приложений | Обязательная маркировка контента + регистрация алгоритмов | CAC с прямым государственным надзором |
| ЕС AI Act | Единая база на основе рисков | Требования по уровням риска | Национальные органы + Офис ИИ ЕС |
| США | Нет федерального закона | Растущая мозаика законов штатов | FTC + генеральные прокуроры штатов |
Влияние на международную разработку ИИ
Для международных ИИ-компаний китайские нормы создают существенные барьеры на входе. Требования локализации данных и регистрации алгоритмов фактически обязывают иностранные компании создавать значительные местные операции для обслуживания китайского рынка — или полностью его покинуть.
Китай планирует установить более 50 отраслевых ИИ-стандартов к 2026 году, сигнализируя о намерении влиять на глобальные нормы ИИ через масштаб внутреннего рынка. По мере расхождения двух крупнейших ИИ-экосистем мира — США и Китая — в регуляторных философиях, технологическая индустрия сталкивается с перспективой работы по фундаментально различающимся правилам на двух важнейших рынках.