Совет ЕС принял позицию по упрощению регулирования ИИ: прагматичная рекалибровка или стратегическое отступление?
Политика и регулирование март 16, 2026 📍 Bruxelles - Brussel, België / Belgique / Belgien Deep Dive

Совет ЕС принял позицию по упрощению регулирования ИИ: прагматичная рекалибровка или стратегическое отступление?

13 марта 2026 года Совет ЕС согласовал мандат на переговоры по Digital Omnibus on AI — целевой поправке к Акту об ИИ, которая переносит сроки исполнения требований к системам высокого риска, вводит новый запрет на генерацию неконсенсуального интимного контента с помощью ИИ и перестраивает архитектуру управления. Анализ институциональных причин, правовых механизмов и геополитических последствий первой крупной постзаконодательной ревизии флагманского регламента ЕС.

Ключевые выводы

Ключевые выводы: (1) Мандат Совета ЕС по Omnibus VII откладывает исполнение требований к высокорисковым ИИ-системам до 16 месяцев — автономные системы теперь получают срок до 2 декабря 2027 г., встроенные — до 2 августа 2028 г., что отражает неготовность гармонизированных стандартов. (2) Новый тотальный запрет на генерацию неконсенсуального сексуального и интимного контента с помощью ИИ — первое расширение перечня запрещённых практик с момента принятия Акта об ИИ. (3) Реформа распространяет регуляторные льготы МСП на малые компании среднего размера, переносит создание регуляторных песочниц на декабрь 2027 г. и переформулирует обязательства по ИИ-грамотности — всё это сигнализирует о сдвиге в сторону конкурентоспособности.


13 марта 2026 года Совет Европейского Союза принял мандат на переговоры по Digital Omnibus on AI — целевому регуляторному инструменту, вносящему поправки в Регламент (ЕС) 2024/1689, более известный как Акт ЕС об искусственном интеллекте. Решение, достигнутое в рамках кипрского председательства, представляет собой первую существенную постзаконодательную ревизию наиболее комплексного в мире регулирования ИИ — менее чем через два года после его вступления в силу 1 августа 2024 года. Момент выбран неслучайно: при том что наиболее значимые обязательства в отношении систем высокого риска первоначально должны были вступить в действие 2 августа 2026 года, Совет фактически пересмотрел регуляторный график, признав тем самым, что темп законодательных амбиций превысил институциональные возможности для их реализации [1].

Институциональные истоки: от доклада Драги к Omnibus VII

Digital Omnibus on AI не возник в регуляторном вакууме. Его генезис восходит к двум программным документам, опубликованным в 2024 году: докладу Энрико Летта «Нечто большее, чем рынок» о реформировании Единого рынка и основополагающему исследованию Марио Драги «Будущее европейской конкурентоспособности», оба из которых определили регуляторную сложность как структурное препятствие для европейской промышленной динамики. Будапештская декларация от 8 ноября 2024 года кристаллизовала эти диагнозы в политический императив, призвав к «революции упрощения» — термину, ставшему организующим принципом десяти Omnibus-пакетов Комиссии.

19 ноября 2025 года Комиссия опубликовала седьмой omnibus-пакет, состоящий из двух параллельных предложений: одного — по общей цифровой законодательной базе (охватывающего GDPR, Data Act и Cyber Resilience Act), и второго — конкретно по имплементации Акта об ИИ. Эта бифуркационная архитектура отражает важную институциональную реальность: Акт об ИИ, при всей его политической значимости, функционирует в плотной сети пересекающихся цифровых регламентов ЕС, и его упрощение не может осуществляться изолированно от более широкого acquis [1].

Ключевые положения мандата Совета

Пересмотренные сроки для систем высокого риска

Пожалуй, наиболее значимый элемент позиции Совета — введение фиксированных пересмотренных дедлайнов для применения требований к высокорисковым ИИ-системам. Первоначальное предложение Комиссии связывало сроки исполнения с наличием гармонизированных европейских стандартов — подход, основанный на готовности, допускавший до 16 месяцев дополнительной подготовки. Мандат Совета, однако, заменил этот условный механизм твёрдыми календарными датами: 2 декабря 2027 года для автономных систем высокого риска (классифицированных по Приложению III Акта об ИИ) и 2 августа 2028 года для высокорисковых ИИ-систем, встроенных в продукты, подпадающие под секторальное гармонизационное законодательство (Приложение I), — такие как медицинские устройства и промышленное оборудование [1].

Этот переход от условных к фиксированным дедлайнам аналитически значим. Хотя он формально предоставляет бизнесу большую определённость в планировании, он также разрывает связь между обязательствами по исполнению и фактическим состоянием разработки стандартов — создавая сценарий, при котором от компаний будут требовать соответствия нормам, технические спецификации к которым ещё не окончательно утверждены. Европейские организации по стандартизации (CEN, CENELEC, ETSI) ведут беспрецедентную работу по разработке специализированных ИИ-стандартов, но процесс хронически отстаёт от графика. Подход Совета — расчётливая ставка: на то, что 18-месячное продление обеспечит достаточный буфер для созревания стандартов, избегая при этом правовой неопределённости бессрочного переноса.

Положение Первоначальный срок Позиция Совета
Автономный высокорисковый ИИ (Приложение III) 2 августа 2026 2 декабря 2027
Встроенный высокорисковый ИИ (продукты Приложения I) 2 августа 2027 2 августа 2028
Регуляторные песочницы (национальный уровень) 2 августа 2026 2 декабря 2027
Запрещённые практики ИИ (CSAM/дипфейки) 2 февраля 2025 Расширение сферы, немедленное действие

Запрет на генерацию неконсенсуального интимного контента

Совет ввёл новую запретительную практику в статью 5 Акта об ИИ: полный запрет на ИИ-системы, генерирующие неконсенсуальные сексуальные или интимные изображения, включая материалы сексуальной эксплуатации детей (CSAM). На практике речь идёт о так называемой «дипфейк-порнографии» — использовании генеративного ИИ для синтеза фотореалистичных обнажённых или откровенно сексуальных изображений и видеозаписей реальных людей, которые никогда не давали согласия на создание подобных материалов. Технология работает путём наложения портретного сходства человека — зачастую извлечённого из обычных фотографий в социальных сетях — на сфабрикованный интимный контент, результаты которого всё труднее отличить от подлинных снимков. То, что ещё вчера было прерогативой профессиональных студий визуальных эффектов, стало доступно любому пользователю с потребительским ноутбуком и бесплатным ИИ-инструментом.

Масштаб и срочность проблемы иллюстрирует серия резонансных инцидентов. В январе 2024 года ИИ-сгенерированные откровенные дипфейк-изображения Тейлор Свифт распространились на X (бывший Twitter), причём одна единственная публикация набрала более 47 миллионов просмотров до удаления — продемонстрировав, что вирусная скорость распространения многократно превышает возможности модерации [4]. В июле 2024 года суд испанского города Альмендралехо приговорил 15 школьников к году условного наказания за использование ИИ-приложений для генерации обнажённых изображений одноклассниц на основе их фотографий из социальных сетей с последующим распространением через группы WhatsApp — дело, обнажившее проникновение технологии в подростковую среду. Затем, в декабре 2025 года, разразился «скандал с Grok»: обновление чат-бота Grok от xAI, интегрированного в платформу X, позволило пользователям редактировать публичные фотографии, превращая их в сексуально провокационные сцены. Исследование, проведённое в течение одной недели, зафиксировало генерацию примерно 6700 сексуализированных изображений в час, при этом 2% из выборки в 20 000 изображений, по-видимому, изображали лиц младше 18 лет. 26 января 2026 года Европейская комиссия открыла формальное расследование в отношении X по DSA, а xAI признала «упущения в системе защитных мер». Именно это схождение потребительской доступности, вирусного распространения и таргетирования несовершеннолетних непосредственно подтолкнуло Совет к возведению запрета в статью 5 — наиболее жёсткую категорию Акта об ИИ, предусматривающую тотальный запрет практик, признанных фундаментально несовместимыми с ценностями ЕС, вне зависимости от маркировки или дисклеймеров [1].

Критический вопрос, который регулирование намеренно оставляет открытым, — точная граница понятия «интимный контент». Расследование в отношении Grok показательно: значительная часть помеченных изображений изображала людей не в полной наготе, а в купальниках, нижнем белье или прозрачной одежде — сценариях, вполне возможных в повседневной жизни. Если человек по собственной воле фотографируется на публичном пляже в бикини, является ли сфабрикованное ИИ-изображение того же человека в другом бикини по определению «интимным»? Формирующийся правовой консенсус указывает на то, что определяющим критерием является не степень обнажённости как таковая, а сочетание неконсенсуальности и сексуализирующего намерения. Синтетическое изображение, призванное поместить реального человека в сексуальный или унижающий контекст — вне зависимости от наличия полной наготы — вероятно, подпадает под запрет статьи 5. И напротив, не-интимные дипфейки (например, сфабрикованное видео политика с речью, которую он никогда не произносил) остаются за пределами запрета и подпадают лишь под обязательства транспарентности статьи 50 Акта об ИИ, требующей чёткого раскрытия искусственного происхождения контента. Эта намеренная асимметрия — абсолютный запрет для сексуализированной фабрикации, требование маркировки для всего прочего — неизбежно будет проверена в национальных судах, и формирующаяся правоприменительная практика определит реальный охват регулирования на годы вперёд.

Архитектура управления: полномочия AI Office и реестр

Мандат Совета вносит несколько целевых корректировок в управленческую архитектуру Акта об ИИ. Уточнены полномочия Офиса по ИИ — структуры, созданной для надзора за моделями общего назначения — в отношении вертикально интегрированных провайдеров (компаний, разрабатывающих и базовую модель, и конечное приложение). Позиция Совета сохраняет надзор AI Office по умолчанию для таких интегрированных систем, но выделяет явные исключения для доменов, где первенство сохраняется за национальными регуляторами: правоохранительные органы, пограничный контроль, судебные институты и финансовое регулирование [1].

Кроме того, Совет восстановил обязательную регистрацию ИИ-систем в базе данных ЕС, в том числе в случаях, когда провайдеры самостоятельно оценивают свои системы как не подпадающие под категорию высокого риска. Это закрывает критическую лакуну в исполнении — без обязательного реестра у регуляторов не было системного механизма для проверки того, являются ли заявления о самоосвобождении легитимными или компании стратегически занижают классификацию своих систем для уклонения от надзора.

Последствия для индустрии и конкурентный ландшафт

Позиция Совета отражает измеримый сдвиг в балансе между регуляторными амбициями и промышленной реальностью. Три конкретных положения иллюстрируют эту рекалибровку. Во-первых, распространение специальных регуляторных освобождений для МСП на малые компании среднего размера (SMC) — предприятия с численностью до 500 сотрудников — расширяет пул фирм, имеющих право на облегчённые пути соответствия. Во-вторых, переформулировка обязательств по ИИ-грамотности из мандатного требования к операторам в механизм поощрения и поддержки на государственном уровне фактически снимает бремя соответствия, вызывавшее значительное сопротивление бизнеса. В-третьих, перенос требований по созданию национальных регуляторных ИИ-песочниц на декабрь 2027 года — признание того, что большинство государств-членов лишены институциональных ресурсов для запуска этих инновационно-тестовых сред в первоначальные сроки.

Эти положения следует рассматривать на фоне нарастающей глобальной гонки в сфере управления ИИ. Хотя ЕС стал первой юрисдикцией, принявшей комплексное горизонтальное законодательство в области ИИ, необходимое для полной имплементации регуляторное время создало конкурентную асимметрию. Американские ИИ-компании действуют в рамках преимущественно добровольного режима соответствия, тогда как китайские фирмы пользуются государственно-директивным подходом, позволяющим оперативно корректировать регуляторные параметры. Omnibus-ревизию ЕС, таким образом, можно интерпретировать не просто как техническое упрощение, но как стратегическую рекалибровку, призванную предотвратить превращение Акта об ИИ в конкурентный недостаток прежде, чем он обеспечит заявленные преимущества в области безопасности.

Обработка данных для выявления предвзятости

Технически значимое положение касается обработки особых категорий персональных данных (определённых статьёй 9 GDPR) в целях выявления и коррекции предвзятости в ИИ-системах. Мандат Совета допускает такую обработку, но восстанавливает стандарт «строгой необходимости» — более высокий порог по сравнению с предложением Комиссии. Это отражает напряжение между двумя легитимными целями: обеспечением возможности для провайдеров создавать более справедливые ИИ-системы посредством анализа чувствительных демографических данных и защитой граждан от непропорциональной обработки их наиболее конфиденциальной информации. Практические последствия значительны для любой ИИ-системы, функционирующей в доменах с исторически документированными паттернами предвзятости: алгоритмы найма, кредитный скоринг, распознавание лиц и прогностическое полицейское профилирование [1].

Прогноз: динамика трилога и имплементационная неопределённость

Мандат Совета теперь переходит на стадию трёхсторонних переговоров (трилога) с Европейским парламентом, который, как ожидается, проведёт голосование профильного комитета по собственной позиции 18 марта 2026 года. Ряд зон потенциальных разногласий уже прослеживается. Парламент исторически выступал в роли более правозащитного со-законодателя и может воспротивиться продлению дедлайнов, если оно будет воспринято как размывание графика применения Акта об ИИ. Положение о запрете CSAM, напротив, вероятно, получит широкую межинституциональную поддержку, учитывая предшествующую работу Европарламента в сфере регулирования онлайн-вреда.

Критический имплементационный риск остаётся: если переговоры в формате трилога затянутся за пределы августа 2026 года — первоначальной даты применения обязательств для систем высокого риска — может возникнуть период правовой неопределённости. Провайдеры столкнутся с вопросом: следовать ли действующим, формально применимым требованиям или ориентироваться на ожидаемые изменённые дедлайны. Эта регуляторная неопределённость, хотя и технически управляемая через рекомендации Комиссии, подчёркивает фундаментальную сложность внесения поправок в крупные регуляторные рамки в момент, когда их собственные положения активно вступают в силу.

Упрощение правил в сфере ИИ является ключевым для обеспечения цифрового суверенитета ЕС. Как председательство, мы работали над этим предложением в приоритетном режиме, достигнув быстрого соглашения для содействия своевременному применению Акта об ИИ. Предложение обеспечит большую правовую определённость, сделает правила более пропорциональными и гарантирует более гармонизированное исполнение во всех государствах-членах.

Digital Omnibus on AI олицетворяет зрелость регуляторного подхода ЕС к искусственному интеллекту — подхода, признающего дистанцию между законодательными амбициями и административными возможностями имплементации. Укрепит ли эта рекалибровка или размоет глобальное регуляторное влияние Акта об ИИ — вопрос, ответ на который зависит не только от исхода трёхсторонних переговоров, но и от траектории международной координации в управлении ИИ в предстоящие годы.

📚 Источники и ссылки

# Source Link
[1] Council agrees position to streamline rules on Artificial Intelligence Council of the European Union, 2026 consilium.europa.eu
[2] Regulation (EU) 2024/1689 — Artificial Intelligence Act European Parliament and Council, 2024 eur-lex.europa.eu
[3] EU AI Act: first regulation on artificial intelligence European Parliament, 2024 europarl.europa.eu
[4] Taylor Swift deepfakes spark calls in Congress for new legislation BBC News, 2024 bbc.com
Share X Reddit LinkedIn Telegram Facebook