Война за регулирование ИИ: как Калифорния и Белый дом разводят линии фронта за будущее американского искусственного интеллекта
Политика и регулирование март 13, 2026 📍 Sacramento, United States Analysis

Война за регулирование ИИ: как Калифорния и Белый дом разводят линии фронта за будущее американского искусственного интеллекта

Калифорния подписывает знаковый закон о безопасности фронтирных моделей ИИ, а Белый дом отвечает указом о федеральном приоритете — Соединённые Штаты стоят перед конституционным противостоянием, которое определит управление искусственным интеллектом на десятилетия вперёд.

Ключевые выводы

Калифорнийский SB 53, Закон о прозрачности фронтирного ИИ, подписанный в сентябре 2025 года, создаёт первую в США систему регулирования, обязывающую разработчиков фронтирных моделей раскрывать протоколы безопасности и сообщать о катастрофических инцидентах — ориентируясь на компании с выручкой свыше $500 млн. Указ Трампа от декабря 2025 года учредил Оперативную группу по судебным разбирательствам в сфере ИИ для оспаривания законов штатов и пригрозил отказом в федеральном финансировании штатам с «обременительными» правилами. Этот конфликт перекликается с историческими регуляторными баталиями, а Европейский AI Act предлагает альтернативную модель, которую США пока отвергают.


В последние месяцы 2025 года американская политика в области ИИ оказалась на перекрёстке, к которому шла годами. С одной стороны выступала Калифорния — дом Кремниевой долины, крупнейшего в мире скопления ИИ-компаний и штата, давно превратившего технологическое регулирование в национальную лабораторию. С другой — Белый дом, вооружённый исполнительной властью и дерегуляционным видением, рассматривающим законы штатов об ИИ как препятствия на пути к технологическому превосходству Америки. Возникшая конфронтация — это не просто политическое разногласие. Это конституционный и философский конфликт о том, кто имеет право управлять самой трансформативной технологией XXI века и каким образом.

Данный анализ рассматривает полную траекторию американского регулирования ИИ — от неудавшегося SB 1047 до знакового SB 53, от отменённого указа Байдена до агрессивной стратегии преимущественного права Трампа. Калифорнийско-федеральный конфликт помещается в более широкий контекст глобального управления ИИ, включая сравнение американского подхода с комплексным AI Act Европейского союза. Ставки огромны: регуляторная модель, которая выйдет из этой битвы, определит, как системы ИИ будут разрабатываться, внедряться и нести ответственность — не только в Соединённых Штатах, но и по всему миру.

Калифорнийский эксперимент: от провала SB 1047 к триумфу SB 53

Чтобы понять нынешнюю позицию Калифорнии в регулировании ИИ, необходимо осмыслить её самый значительный провал. Законопроект Сената 1047 (SB 1047), Закон о безопасных и надёжных инновациях в области фронтирных моделей искусственного интеллекта, стал, пожалуй, самым амбициозным документом по безопасности ИИ, когда-либо представленным в Соединённых Штатах. Автором выступил сенатор штата Скотт Винер, и в августе 2024 года законопроект был принят Легислатурой Калифорнии. Он предлагал масштабные требования для разработчиков крупнейших моделей ИИ — тех, что обучены с использованием более чем 10^26 вычислительных операций (приблизительно 100 секстиллионов операций с плавающей запятой) при стоимости разработки свыше $100 млн [2].

SB 1047 предусматривал обязательное наличие механизмов полного отключения крупных моделей ИИ, установление подробных протоколов безопасности для предотвращения «критического ущерба» инфраструктуре и населению, а также наделение Генерального прокурора Калифорнии полномочиями для возбуждения гражданских исков против нарушителей. Законопроект представлял собой решительный, интервенционистский подход к управлению ИИ — подход, рассматривающий разработку фронтирного ИИ как деятельность с неотъемлемым системным риском, аналогичную эксплуатации атомной электростанции или производству фармацевтических препаратов.

Губернатор Гэвин Ньюсом наложил вето на законопроект 29 сентября 2024 года. Его аргументация была характерно калифорнийской в своей нюансированности: он утверждал, что SB 1047 чрезмерно сфокусирован на самых дорогостоящих моделях ИИ, что может создать «ложное чувство безопасности» в отношении рисков ИИ. Более мелкие, специализированные модели — которые не достигают вычислительных порогов законопроекта, но способны нанести значительный ущерб — полностью ускользнули бы от регулирования. Ньюсом также выразил опасения, что жёсткие стандарты законопроекта могут задушить инновации в технологическом секторе Калифорнии, потенциально направив разработку ИИ в юрисдикции с менее строгим регулированием.

Вето вызвало споры. Защитники безопасности ИИ, включая ведущих исследователей таких организаций, как Center for AI Safety, утверждали, что Ньюсом капитулировал перед давлением индустрии. Аппарат губернатора парировал, что вето — это не отказ от регулирования ИИ, а калибровка: предпочтение целевых, доказательно обоснованных правил вместо грубых инструментов. Это различие окажется пророческим.

SB 53: Закон о прозрачности фронтирного искусственного интеллекта

Ровно через год после вето на SB 1047 Ньюсом подписал его духовного наследника. Законопроект Сената 53 (SB 53), Закон о прозрачности фронтирного искусственного интеллекта (TFAIA), был принят 29 сентября 2025 года, сделав Калифорнию первым штатом в стране, принявшим законодательство, специально направленное на безопасность и прозрачность фронтирных моделей ИИ [1]. Закон вступил в силу 1 января 2026 года.

Если SB 1047 пытался установить прямой операционный контроль над разработкой ИИ, то SB 53 избрал принципиально иную стратегию: прозрачность как регулирование. Ключевая философия закона состоит в том, что наиболее эффективный способ управления стремительно развивающейся технологией — не предписывающие технические мандаты, которые могут устареть прежде, чем вступят в силу, а надёжные требования раскрытия информации, позволяющие регуляторам, исследователям и общественности выявлять возникающие риски и реагировать на них.

Параметр SB 1047 (вето, 2024) SB 53 (подписан, 2025)
Охват Модели, обученные с >10^26 операций, стоимость >$100 млн Крупные фронтирные разработчики с выручкой >$500 млн/год
Механизм Операционные мандаты (отключение, протоколы безопасности) Требования прозрачности (рамки безопасности, отчётность об инцидентах)
Принуждение Гражданские иски Генпрокурора, ответственность за ущерб Гражданские штрафы до $1 млн за нарушение
Защита информаторов Ограниченная Комплексная защита за раскрытие информации о безопасности
Публичная отчётность Не предусмотрена Обязательная система отчётности о нежелательных событиях
Федеральная отсылка Отсутствует Соответствие сопоставимым федеральным/стандартам ЕС принимается
Местное преимущество Отсутствует Приоритет над местными правилами после 1 января 2025

SB 53 нацелен на «крупных фронтирных разработчиков» — компании с годовой выручкой от ИИ-моделей свыше $500 млн — и «фронтирные модели», то есть фундаментальные модели, обученные с использованием более 10^26 вычислительных операций. На практике закон охватывает ведущих игроков индустрии: OpenAI, Google DeepMind, Anthropic, Meta и ряд других. Закон обязывает эти компании публично раскрывать «рамочную систему фронтирного ИИ», описывающую их стандарты безопасности, методы оценки рисков и протоколы реагирования на критические инциденты безопасности [1].

Законодательство определяет «катастрофический риск» с примечательной точностью: предсказуемый риск того, что фронтирная модель может существенно способствовать гибели или серьёзному ранению более 50 человек, либо имущественному ущербу свыше $1 млн в результате одного инцидента. «Критический инцидент безопасности» включает несанкционированный доступ к весам модели, ущерб от катастрофического риска, потерю контроля над фундаментальной моделью, приводящую к серьёзным травмам или гибели, а также применение моделью обманных техник для обхода контрольных механизмов.

Пожалуй, наиболее значимо то, что SB 53 создаёт обязательную систему отчётности о нежелательных событиях — обязывая разработчиков сообщать о критических инцидентах безопасности в Управление экстренных служб Калифорнии — наряду с добровольными механизмами отчётности для конечных пользователей. Этот дизайн воспроизводит хорошо зарекомендовавшие себя регуляторные модели в здравоохранении (система отчётности FDA о нежелательных событиях) и авиации (отчётность NTSB об инцидентах), где требования прозрачности доказали свою эффективность в выявлении системных рисков без обременительных предписаний.

Закон также предусматривает создание CalCompute — публичного консорциума облачных вычислений, направленного на содействие безопасной, этичной и справедливой разработке ИИ. Это положение сигнализирует об амбиции, выходящей за рамки регулирования: Калифорния стремится не просто ограничивать разработку ИИ, но активно формировать её направление через инвестиции в публичную инфраструктуру.

Калифорнийская рабочая группа по фронтирному ИИ

SB 53 не возник в вакууме. Его форму во многом определила Калифорнийская рабочая группа по фронтирному ИИ — орган, созванный губернатором Ньюсомом для разработки научно обоснованных политических рекомендаций после вето на SB 1047. Рабочая группа представила итоговый отчёт 17 июня 2025 года, после периода публичных консультаций по проекту от марта 2025 года.

В отчёте были сформулированы ключевые принципы, непосредственно повлиявшие на архитектуру SB 53. Группа подчеркнула публичную прозрачность как краеугольный камень подотчётности ИИ, рекомендовала обязательные независимые оценки рисков с правовыми гарантиями для оценщиков, выступила за надёжную защиту информаторов, охватывающую не только правовые нарушения, но и добросовестные сообщения о безопасности, а также предложила гибридную систему отчётности о нежелательных событиях, которую SB 53 в конечном счёте принял.

Рабочая группа также извлекла критический урок из прошлых неудач технологического управления: важность раннего политического вмешательства. На примерах социальных сетей, где регуляторное бездействие на стадии формирования технологии позволило вредоносным паттернам глубоко укорениться, отчёт утверждал, что ожидание очевидных доказательств вреда ИИ было бы дорогостоящей ошибкой. Лучше установить базовые требования прозрачности сейчас и уточнять их по мере развития технологии.

Федеральный контрудар: стратегия преимущественного права Трампа

Если подход Калифорнии к регулированию ИИ был итеративным и доказательно обоснованным, то федеральная реакция оказалась драматичной и конфронтационной. 11 декабря 2025 года президент Трамп подписал указ «Об обеспечении национальных рамок политики в области искусственного интеллекта», подготовив почву для самого значительного федерально-штатного конфликта по вопросам технологического управления со времён баталий вокруг сетевого нейтралитета и законов штатов о конфиденциальности.

Заявленная цель указа — установить «минимально обременительный национальный стандарт» регулирования ИИ. В контексте содержания указа эта формулировка равнозначна декларации о намерении федерального правительства не допустить регулирования ИИ штатами в любой форме, которую Белый дом сочтёт чрезмерно ограничительной. Указ прямо называет Калифорнию и Колорадо штатами, чьи законы об ИИ могут стать мишенью.

Наиболее агрессивное положение указа — создание Оперативной группы по судебным разбирательствам в сфере ИИ при Министерстве юстиции. Этот орган специально уполномочен выявлять и юридически оспаривать законы штатов об ИИ, признанные неконституционными, противоречащими федеральному праву или несовместимыми с видением ИИ-лидерства Америки. Оперативная группа представляет беспрецедентное использование федеральных прокурорских ресурсов для систематического демонтажа технологического регулирования на уровне штатов.

  • Оперативная группа по ИИ при Минюсте уполномочена оспаривать законы штатов, несовместимые с федеральной политикой ИИ
  • Федеральная торговая комиссия обязана выпустить заявление о применении закона о запрете обманных практик к ИИ-моделям и преимущественном праве над законами штатов
  • Министр торговли должен оценить законы штатов об ИИ и выявить противоречащие национальной политике
  • Штатам с «обременительными законами об ИИ» грозит отказ в федеральном финансировании, включая гранты BEAD на широкополосный доступ
  • Ограниченные исключения существуют для детской безопасности, инфраструктуры вычислений ИИ и госзакупок

Указ также поручает Федеральной торговой комиссии выпустить политическое заявление о том, как запрет FTC Act на обманные практики применяется к моделям ИИ — и, что критически важно, как эти существующие федеральные полномочия могут иметь преимущественное право над законами штатов об ИИ. Кроме того, министру торговли поручено оценить законы штатов об ИИ и выявить те, которые противоречат национальной политике, с подразумеваемой угрозой потери штатами права на федеральное финансирование.

Ответ губернатора Ньюсома был резким. Он публично охарактеризовал указ как продвижение «нечестной наживы и коррупции» вместо подлинных инноваций и пообещал, что Калифорния начнёт юридическое оспаривание федеральной попытки установить преимущественное право. Риторика губернатора сигнализировала, что Калифорния рассматривает это не как обычное политическое разногласие, а как экзистенциальную угрозу суверенитету штата в одной из важнейших экономических областей.

Промежуточный период Байдена: несостоявшийся регуляторный путь

Указ Трампа необходимо рассматривать в контексте регуляторного вакуума, который он заполнил. Указ президента Байдена 14110, изданный 30 октября 2023 года, пытался установить комплексную федеральную модель управления ИИ. Указ поручал NIST разработать стандарты безопасности ИИ, обязывал ИИ-компании делиться результатами тестов безопасности с федеральным правительством для моделей, превышающих определённые вычислительные пороги, и ставил множеству агентств задачу разработки отраслевых руководств по ИИ [3].

Подход Байдена, при всей его амбициозности, был фундаментально кооперативным: он стремился создать федеральный минимум регулирования ИИ, который дополнял бы, а не вытеснял усилия штатов. Многие положения содержали агрессивные сроки реализации — некоторые всего 90 дней — и представляли собой самую детальную федеральную попытку системно подойти к управлению ИИ.

20 января 2025 года, в день инаугурации Трампа, Указ 14110 был отменён. Страница NIST, документировавшая указ, теперь содержит единственное предложение: «Указ (EO) о безопасном, надёжном и заслуживающем доверия искусственном интеллекте (14110), изданный 30 октября 2023 года, был отменён 20 января 2025 года» [3]. С его отменой Соединённые Штаты лишились наиболее комплексной федеральной модели безопасности ИИ — модели, которая при всех ограничениях хотя бы пыталась системно адресовать риски технологии.

Политический разнобой — от комплексного регулирования Байдена к агрессивному дерегулированию Трампа — оставил легислатуры штатов основной ареной управления ИИ. Калифорнийский SB 53 и колорадский SB 205 были не актами чрезмерного регулирования, а ответом на федеральный регуляторный вакуум. Последующая атака администрации Трампа на эти законы создаёт двойную ловушку: демонтировав федеральную регуляторную архитектуру, Белый дом теперь стремится не допустить, чтобы штаты заполнили образовавшуюся пустоту.

Широкий ландшафт: Колорадо и формирующаяся мозаика штатных законов

Калифорнийский SB 53 не существует изолированно. Колорадский SB 205, подписанный губернатором Джаредом Полисом 17 мая 2024 года, считается первым комплексным законом штата об ИИ в Соединённых Штатах. Если Калифорния сфокусировалась на прозрачности фронтирных моделей, Колорадо избрал иной подход — борьбу с алгоритмической дискриминацией в принятии решений с высокими ставками.

Колорадский закон об ИИ устанавливает обязанность разумной осмотрительности для разработчиков и операторов «высокорисковых» систем ИИ — определённых как системы, принимающие или существенно влияющие на «последственные решения» в таких областях, как трудоустройство, жильё, здравоохранение, страхование, финансовые услуги и юридические услуги. Закон предписывает программы управления рисками, оценки воздействия и прозрачность для потребителей, включая право оспаривать неблагоприятные решения, принятые ИИ. Компании, соблюдающие признанные стандарты (NIST AI Risk Management Framework или ISO 42001), могут использовать это как правовую защиту.

Вместе Калифорния и Колорадо представляют два взаимодополняющих подхода к управлению ИИ: регулирование прозрачности наиболее мощных моделей (SB 53) и регулирование дискриминации в наиболее значимых применениях (SB 205). Эта формирующаяся двуединая система — управление одновременно возможностями технологии и контекстами её применения — может оказаться прочнее и комплекснее любого отдельного закона.

Дата Событие Значимость
30 октября 2023 Байден подписывает Указ 14110 Первая комплексная федеральная модель безопасности ИИ
17 мая 2024 Колорадо SB 205 подписан Первый комплексный закон штата об ИИ в США
29 сентября 2024 Ньюсом накладывает вето на SB 1047 Отказ от предписывающего подхода; поворот к прозрачности
20 января 2025 Трамп отменяет Указ Байдена 14110 Федеральная модель безопасности ИИ демонтирована в первый день
2 февраля 2025 Запреты AI Act ЕС вступают в силу Запрет социального скоринга, манипулятивного ИИ, биометрии
17 июня 2025 Итоговый отчёт рабочей группы КА Научно обоснованные рекомендации формируют SB 53
2 августа 2025 Требования AI Act к GPAI активны Провайдеры LLM обязаны соблюдать обязательства прозрачности
29 сентября 2025 Ньюсом подписывает SB 53 Первый закон США о прозрачности фронтирных моделей ИИ
11 декабря 2025 Трамп подписывает указ о преимуществе Создана Оперативная группа Минюста для оспаривания законов штатов
1 января 2026 SB 53 вступает в силу Фронтирные разработчики обязаны публиковать рамки безопасности
1 февраля 2026 Колорадо SB 205 вступает в силу Защита от алгоритмической дискриминации введена в действие

Европейский контраст: как AI Act ЕС переосмысливает американскую дискуссию

Американская регуляторная битва становится ещё более показательной на фоне Акта ЕС об искусственном интеллекте — первой в мире комплексной, юридически обязательной системы управления ИИ [4]. EU AI Act вступил в силу 1 августа 2024 года и внедряется поэтапно до 2027 года, создавая систему классификации на основе рисков, распределяющую приложения ИИ по степени их потенциального вреда.

Подход ЕС фундаментально отличается и от калифорнийского, и от подхода администрации Трампа своей философской ориентацией. Калифорния делает акцент на прозрачности, Белый дом Трампа — на инновациях и национальной конкурентоспособности, а AI Act ЕС ставит во главу угла защиту фундаментальных прав. Системы ИИ классифицируются по четырём уровням риска: неприемлемый (запрещены), высокий (строгие требования, включая оценки соответствия), ограниченный (обязательства прозрачности) и минимальный (практически не регулируется).

Параметр Европейский союз (AI Act) Калифорния (SB 53) Федеральный уровень США (Указ Трампа)
Философия Правозащитная, превентивная Основанная на прозрачности, итеративная Инновации прежде всего, дерегуляция
Охват Все системы ИИ по уровню риска Фронтирные модели крупных разработчиков Федеральный приоритет над законами штатов
Классификация рисков 4-уровневая (запрет → минимальный) Порог катастрофического риска (>50 погибших или >$1 млн ущерба) Не определена
Принуждение Национальные органы + Офис ИИ ЕС + штрафы до €35 млн или 7% оборота Генпрокурор КА, до $1 млн/нарушение Оперативная группа Минюста (против законов штатов)
Хронология Поэтапно: 2024–2027 С 1 января 2026 года Немедленная исполнительная власть
Позиция индустрии Адаптация через комплаенс Смешанная: поддержка и лоббирование порогов Сильная поддержка федерального приоритета
Международное влияние Брюссельский эффект: де-факто глобальный стандарт Потенциальная модель для других штатов Может изолировать США от глобальной конвергенции

Поэтапное внедрение AI Act ЕС предоставляет полезную дорожную карту для понимания созревания регулирования ИИ. Запреты на системы ИИ с наивысшим уровнем риска — включая социальный скоринг, манипулятивный ИИ и большинство систем биометрической идентификации в реальном времени — вступили в силу 2 февраля 2025 года. Требования к моделям ИИ общего назначения (включая большие языковые модели) стали применимы 2 августа 2025 года. Полный набор требований к высокорисковым системам ИИ будет применяться с августа 2026 года, а требования к компонентам безопасности — с 2027 года.

Примечательно, что сам SB 53 содержит положение о «федеральной отсылке», признающее потенциальную роль AI Act ЕС как глобального регуляторного стандарта. Компании, соблюдающие сопоставимые федеральные или европейские стандарты, могут выполнить определённые требования SB 53 без дублирования отчётности. Это положение имплицитно признаёт то, что отмечают многие аналитики: в отсутствие комплексного федерального законодательства об ИИ в США, AI Act ЕС становится де-факто глобальным стандартом — феномен, который учёные называют «Брюссельским эффектом», при котором регуляторная сила ЕС формирует мировые рынки через гравитационное притяжение единого рынка.

Конституционный вопрос: преимущественное право, федерализм и Десятая поправка

В своей основе конфликт между Калифорнией и администрацией Трампа — это конституционный вопрос о границах федеральной власти. Стратегия преимущественного права из указа Трампа основана на теории о том, что регулирование ИИ относится к федеральной юрисдикции, поскольку затрагивает межштатную и международную торговлю. Контрпозиция Калифорнии опирается на Десятую поправку, резервирующую за штатами полномочия, не делегированные федеральному правительству, а также на традиционные полицейские полномочия штата по защите здоровья и безопасности жителей.

У этой конституционной конструкции есть хорошо установленные прецеденты, и они не всегда благоприятствуют федеральному правительству. В областях от экологического регулирования (стандарты выбросов транспортных средств Калифорнии по Закону о чистом воздухе) до финансового регулирования (законы штатов о защите потребителей) и политики в отношении каннабиса, Калифорния неоднократно устанавливала регуляторные режимы, сосуществующие с федеральными стандартами и иногда превосходящие их. Ключевой правовой вопрос: достаточно ли комплексно федеральное регулирование ИИ, чтобы «занять поле» — доктрина, допускающая федеральный приоритет лишь там, где Конгресс принял настолько всеобъемлющую регуляторную схему, что действия штата несовместимы с её целями.

Проблема администрации Трампа значительна: она не приняла (и не проявляет интереса к принятию) комплексного федерального законодательства об ИИ. Исполнительные указы по своей природе являются выражением политики исполнительной власти, а не закона. Без акта Конгресса, устанавливающего комплексную федеральную регуляторную модель ИИ, правовые основания для вытеснения законов штатов об ИИ через одни лишь исполнительные действия конституционно сомнительны. Суды исторически скептически относились к заявлениям исполнительной власти о преимущественном праве, особенно когда исполнительная ветвь стремится вытеснить законы штатов в сферах традиционной компетенции штатов.

Многоуровневый ландшафт управления ИИ
graph TD
    A["Регуляторная власть над ИИ"] --> B["Федеральный уровень"]
    A --> C["Уровень штатов"]
    A --> D["Международный"]
    B --> E["Указ Трампа: стратегия приоритета"]
    B --> F["Нет комплексного федерального закона об ИИ"]
    B --> G["Оперативная группа Минюста по ИИ"]
    C --> H["Калифорния SB 53"]
    C --> I["Колорадо SB 205"]
    C --> J["Другие штаты наблюдают"]
    D --> K["EU AI Act"]
    D --> L["Проинновационный подход Великобритании"]
    E -->|"Оспаривает"| H
    E -->|"Оспаривает"| I
    H -->|"Клауза федеральной отсылки"| K
    F -->|"Создаёт вакуум"| C

Аргумент об инновациях: действительно ли регулирование тормозит развитие ИИ?

Центральный аргумент администрации Трампа в пользу преимущественного права состоит в том, что законы штатов об ИИ будут препятствовать американским инновациям и уступать конкурентное преимущество Китаю и другим странам. Этот аргумент, политически убедительный, заслуживает строгой проверки.

Эмпирические данные о влиянии регулирования на технологические инновации значительно более нюансированы, чем предлагает бинарный нарратив. Фармацевтическая отрасль — один из наиболее жёстко регулируемых секторов мировой экономики — стабильно производит прорывные инновации, а компании из стран с надёжными регуляторными системами (США, ЕС, Япония) доминируют на глобальном рынке. Финансовое регулирование, включая требования к капиталу и стресс-тесты, введённые после кризиса 2008 года, не помешало появлению финтех-инноваций; напротив, чёткие регуляторные рамки это обеспечили, предоставив рыночную определённость, необходимую инвесторам.

Требования прозрачности SB 53 вряд ли создадут значительную операционную нагрузку для фронтирных разработчиков ИИ. Компании, попадающие под действие закона, — те, чья годовая выручка от ИИ превышает $500 млн, — уже содержат внутренние команды безопасности, проводят предрелизное тестирование и документируют процессы оценки рисков. SB 53 требует, чтобы эти существующие процессы были публично раскрыты, а не созданы с нуля. Для хорошо управляемых лабораторий ИИ предельные затраты на комплаенс скромны. Для плохо управляемых лабораторий — тех, у которых нет адекватных процессов безопасности — стоимость комплаенса и является смыслом закона.

Более существенная проблема — регуляторная фрагментация. Если каждый из 50 штатов примет собственные правила регулирования ИИ, компании действительно могут столкнуться с бременем комплаенса — проблема «лоскутного одеяла», на которую ссылается указ Трампа. Но этот аргумент обоюдоостр: решение проблемы регуляторной фрагментации — комплексное федеральное законодательство, а не федеральное бездействие в сочетании с вытеснением законов штатов. Блокируя регулирование штатов без предоставления федеральной альтернативы, подход Трампа создаёт наихудший из возможных сценариев: отсутствие связной регуляторной модели на любом уровне.

Что дальше: сценарии управления ИИ в Америке

Битва за регулирование ИИ между Калифорнией и Белым домом вряд ли будет разрешена быстро или чисто. Правдоподобны несколько сценариев, каждый с глубокими последствиями для траектории технологии.

В первом сценарии Оперативная группа Минюста по ИИ успешно оспаривает SB 53 в федеральном суде, устанавливая прецедент, что исполнительные указы могут вытеснять законы штатов об ИИ даже без комплексного федерального законодательства. Этот исход фактически заморозит регулирование ИИ на уровне штатов по всей стране, оставив США без значимой модели управления ИИ — регуляторный вакуум, который сохранится до действий Конгресса, что может занять годы.

Во втором сценарии Калифорния побеждает в суде, устанавливая, что штаты сохраняют право регулировать ИИ на своей территории в отсутствие комплексного федерального законодательства. Это вызовет волну законов штатов об ИИ, с десятками штатов, ориентирующихся на Калифорнию и Колорадо как модели. Результат — фрагментированный, но активный регуляторный ландшафт: неаккуратный, но функциональный.

Третий сценарий предполагает переговорное решение: Конгресс принимает двухпартийное законодательство об ИИ, устанавливающее базовые федеральные стандарты при сохранении права штатов их превышать (модель, используемая в экологическом праве и защите потребителей). Это потребует политической воли, которой в настоящее время явно не хватает, но обостряющаяся конфронтация между Калифорнией и Белым домом может стать катализатором.

Наиболее опасный сценарий — затяжная неопределённость: годы судебных тяжб, сменяющих друг друга указов и законодательного тупика, в течение которых ИИ-индустрия продолжает разрабатывать и внедрять всё более мощные системы без связной регуляторной модели. Поэтапное внедрение AI Act ЕС, при всех его несовершенствах, гарантирует, что европейские регуляторы наращивают институциональный потенциал и создают прецеденты, пока американцы спорят о юрисдикции.

Заключение: регулирование, в котором нуждается Америка

Битва между Калифорнией и Белым домом за регулирование ИИ — это на самом глубоком уровне дебаты о соотношении технологической мощи и демократической подотчётности. Калифорнийский SB 53, при всех его ограничениях, представляет серьёзную попытку утвердить принцип, что компании, создающие самые мощные системы ИИ, несут обязательства прозрачности перед обществом. Указ Трампа представляет столь же серьёзную попытку утвердить принцип, что американское лидерство в ИИ требует регуляторной сдержанности.

Обе позиции содержат элементы истины, и ни одна не является достаточной сама по себе. Инновации без подотчётности безрассудны; подотчётность без инноваций — стагнация. Задача американской политики в сфере ИИ — найти модель, обеспечивающую и то, и другое: рыночную определённость, необходимую компаниям для инвестиций, прозрачность, нужную регуляторам для выявления рисков, и базовую защиту, необходимую гражданам для доверия технологии.

ЕС продемонстрировал, что такая модель достижима, пусть и несовершенна. Калифорния продемонстрировала готовность американских штатов её создавать. Вопрос в том, решит ли федеральное правительство вести, следовать или просто мешать. Ответ определит не только американскую политику в области ИИ, но и глобальную траекторию самой значимой технологии нашей эпохи.

📚 Источники и ссылки

# Source Link
[1] SB 53 — Модели искусственного интеллекта: крупные разработчики (текст закона) Легислатура Калифорнии / сенатор Скотт Винер, 2025 leginfo.legislature.ca.gov
[2] SB 1047 — Закон о безопасных и надёжных инновациях фронтирных моделей ИИ (текст законопроекта) Легислатура Калифорнии / сенатор Скотт Винер, 2024 leginfo.legislature.ca.gov
[3] NIST: Искусственный интеллект — Рамочная система управления рисками и стандарты Национальный институт стандартов и технологий, 2025 nist.gov
[4] Акт ЕС об искусственном интеллекте — полный текст и график внедрения Future of Life Institute, 2024 artificialintelligenceact.eu
Share X Reddit LinkedIn Telegram Facebook