Военный ИИ как «аномальная» технология: почему поле боя не поддаётся регулированию по лекалам Кремниевой долины
Политика и регулирование март 12, 2026 📍 Washington, United States Deep Dive

Военный ИИ как «аномальная» технология: почему поле боя не поддаётся регулированию по лекалам Кремниевой долины

Новый правовой анализ на Lawfare утверждает, что военный ИИ фундаментально отличается от коммерческого — его движут гонка вооружений, перекладывание рисков на гражданское население и структурная секретность, делающие гражданские модели управления опасно неадекватными.

Ключевые выводы

Ключевые выводы: профессор Вест-Пойнта Скотт Салливан утверждает, что военный ИИ — это «аномальная» технология, которую нельзя регулировать гражданскими правовыми рамками. Три структурных фактора — стимулы гонки вооружений, экстернализация издержек на мирное население и налогоплательщиков, а также операционная секретность — подавляют механизмы обратной связи, ограничивающие коммерческий ИИ. Стратегия ускорения ИИ Пентагона прямо заявляет, что интеграция — это «гонка, в которой побеждает скорость». Сопутствующая статья Джессики Тиллипман раскрывает, как управление военным ИИ скатывается к двусторонним контрактам — «регулированию через контракт» — без демократической подотчётности. Конфронтация Anthropic и Пентагона из-за «любого законного использования» демонстрирует фундаментальное противоречие: когда правительство является и регулятором, и клиентом, контрактные гарантии оказываются неисполнимыми.


27 февраля 2026 года Пентагон присвоил компании Anthropic — создателю передовой модели ИИ Claude и первой компании, чей ИИ использовался в засекреченных сетях вооружённых сил США — статус угрозы национальной безопасности в цепочке поставок. Причина: компания ввела договорные ограничения на использование своей технологии военными, отказавшись дать общее разрешение на массовое внутреннее наблюдение и полностью автономное оружие. Менее чем через сутки американские вооружённые силы, по имеющимся данным, использовали ту же самую модель ИИ для инициирования операций по определению целей в Иране. Это противоречие не просто ироничное — оно, как пишет профессор права Военной академии Вест-Пойнт Скотт Салливан в своём программном анализе на Lawfare, «аналитически поучительно» — это окно в мир, где военный ИИ не может регулироваться теми же рамками, которые медленно формируются для коммерческого ИИ [1].

Центральный аргумент Салливана обманчиво прост: хотя ИИ может функционировать как «нормальная» технология в корпоративных офисах и больницах — подчиняясь рыночной дисциплине, правовой ответственности и регуляторному давлению — в военной сфере он превращается в нечто фундаментально иное. Структурные силы, обычно сдерживающие внедрение технологий, здесь ослаблены, инвертированы или вовсе отсутствуют. Вместо них военные институты функционируют в системах стимулов, вознаграждающих скорость за счёт осторожности, перекладывающих издержки неудач на население, лишённое голоса в решениях о закупках, и скрывающих данные о работоспособности за слоями оперативной секретности [1].

Тезис «нормальной технологии» и его военное исключение

Интеллектуальным фоном анализа Салливана служит влиятельная концепция «ИИ как нормальная технология», сформулированная специалистами по информатике из Принстона Арвиндом Нараянаном и Саяшем Капуром. Опубликованная как крупное эссе Институтом Первой поправки Найта при Колумбийском университете в апреле 2025 года и развитая в готовящейся к выходу книге, их теория утверждает, что ИИ — несмотря на окружающий его ажиотаж — лучше всего понимать как технологию общего назначения, подобную электричеству или интернету [3]. Его диффузия, утверждают они, будет постепенной и неравномерной, формируемой той же институциональной инерцией, нетерпимостью к рискам, регуляторными препятствиями и издержками интеграции, которые управляли каждой предшествующей технологической революцией.

Оптика «нормальной технологии» показала свою огромную полезность для снижения хайпа вокруг ИИ. Она предлагает корректив как утопическим видениям неминуемого сверхразума, так и антиутопическим нарративам экзистенциального риска. Но, как сами Нараянан и Капур прямо признают, военный ИИ — это исключение, обладающее «уникальной динамикой, требующей более глубокого анализа» [3]. Вклад Салливана состоит именно в том, что он обеспечивает этот углублённый анализ — и его выводы отрезвляют.

Структурная особенность первая: стимулы гонки вооружений

В большинстве отраслей у организаций мало стимулов глубоко интегрировать ИИ в текущие операции. Коммерческие предприятия с устойчивой финансовой базой обычно не склонны отклоняться от проверенных систем и процессов. Это нежелание усиливается там, где цена ошибки высока. Здравоохранение — наглядный пример: несмотря на одну из самых развитых экосистем разработки инструментов ИИ, внедрение остаётся медленным, поскольку врачи, не терпящие рисков, предпочитают устоявшиеся методы инструментам, которые они воспринимают как непроверенные и непрозрачные.

Военные институты работают в радикально иной системе координат. Стратегическая логика войны вознаграждает даже минимальные операционные преимущества, особенно когда они обеспечены технологиями, повышающими скорость, точность или превосходство в принятии решений. Инновации встроены в конкурентную логику гонки вооружений: как постоянно напоминают военачальники, «противник имеет право голоса». Это создаёт структурный стимул к подготовке к наихудшим сценариям, ставя скорость интеграции на первое место — аналогов чему на гражданских рынках не существует [1].

Стратегия ускорения ИИ Пентагона, подписанная министром обороны Питом Хегсетом в январе 2026 года, кристаллизует эту динамику с поразительной откровенностью. Стратегия прямо определяет интеграцию ИИ как «гонку, в которой побеждает скорость», предписывая ведомству «принять, что риски недостаточно быстрых действий перевешивают риски несовершенной согласованности». Что ещё более показательно — стратегия требует, чтобы учения и эксперименты, которые не «содержательно включают ИИ и автономные возможности», подвергались «пересмотру финансирования» — фактически наказывая любые подразделения, не внедряющие ИИ с достаточным темпом [1].

Риски недостаточно быстрых действий перевешивают риски несовершенной согласованности.

Этот директивный мандат на ускорение не имеет аналогов в частном секторе, где тысячи независимых компаний сохраняют дискрецию относительно сроков и масштабов внедрения технологий. Ни один генеральный директор не может заставить целую отрасль интегрировать ИИ в фиксированные сроки. Но министр обороны Хегсет создал именно такое принуждение в масштабах крупнейшей бюрократии мира.

Структурная особенность вторая: экстернализованные издержки

Когда коммерческие системы ИИ дают сбой, издержки, как правило, несут организации, которые их развернули. Компании, использовавшие ИИ в отборе персонала, обслуживании клиентов и создании контента, сталкивались со значительным репутационным ущербом, правовой ответственностью и регуляторными штрафами, когда их инструменты не отвечали требованиям клиентов или не соответствовали законодательству. Эти интернализированные издержки создают мощные петли обратной связи: компании учатся на ошибках, потому что платят за них.

В военном контексте этот механизм коррекции ошибок структурно ослаблен или отсутствует. Издержки неудачных оружейных проектов, неточных систем наведения и провальных закупочных решений несут не институты, которые их принимают, а налогоплательщики, которые их финансируют, и — в наиболее катастрофических случаях — мирные жители, которые от них гибнут [1].

Эксперимент за 800 миллионов долларов

Инициатива GenAI.mil Пентагона иллюстрирует финансовое измерение этой экстернализации. В середине 2025 года Центральное управление цифровых технологий и искусственного интеллекта (CDAO) заключило отдельные контракты на сумму до 200 миллионов долларов каждый с четырьмя конкурирующими компаниями ИИ — Google, OpenAI, xAI и Anthropic — одновременно инвестируя в параллельные платформы ИИ вместо выбора единственного поставщика. Масштаб и разнообразие этого портфеля защищают военных от любого единичного провала, демонстрируя готовность нести финансовые потери, которые ни одно коммерческое предприятие не допустило бы [1].

Издержки, оплаченные жизнями мирных жителей

Но экстернализированные издержки не ограничиваются финансовым расточительством. Наиболее тяжёлая форма экстернализации проявляется тогда, когда ошибки и конструктивные решения систем ИИ ложатся на мирное население, которое не имело голоса в их разработке или развёртывании.

Применение ИИ-систем целеуказания Армией обороны Израиля в Газе предоставляет наиболее документированный пример. После начала операций после 7 октября 2023 года ЦАХАЛ внедрил системы ИИ, включая Lavender — для идентификации индивидуальных целей — и Habsora («Евангелие»), которая определяет здания и объекты для бомбардировки. Согласно расследованиям журнала +972 Magazine и The Guardian, основанным на показаниях шести офицеров израильской разведки, система Lavender генерировала примерно 37 000 рекомендаций по целям в первые недели конфликта, увеличив темп идентификации целей с примерно 50 в год до 100 в день [4].

Анализ Салливана выявляет структурный механизм, посредством которого такая ИИ-обусловленная пролиферация целей повышает ущерб для мирного населения — даже при допущении, что каждая выявленная цель является законной. Согласно международному гуманитарному праву, принцип пропорциональности оценивается для каждого удара отдельно, а не кумулятивно. Каждая новая выявленная законная цель создаёт новую возможность для удара, при котором определённый уровень сопутствующего ущерба для гражданских лиц может быть признан пропорциональным. Таким образом, ИИ-системы, драматически расширяя набор целей, могут значительно увеличить общие потери среди мирного населения, формально не нарушая действующий правовой стандарт [1]. Технология не меняет закон — она эксплуатирует его структуру.

Показатель До внедрения ИИ-систем После внедрения ИИ (Lavender/Habsora)
Темп идентификации целей ~50 в год ~100 в день
Время анализа одной цели Часы работы аналитика ~20 секунд (в основном проверка пола)
Заявленная погрешность Публично не раскрывалась ~10% по данным военных источников
Допустимый сопутствующий ущерб (младшие боевики) Индивидуальная оценка По имеющимся данным, до 15–20 мирных жителей на цель

Украинская лаборатория

Украина предоставляет иное, но столь же показательное окно в экстернализацию издержек. Программа «Протестируй в Украине», запущенная государственным акселератором оборонных технологий Brave1, прямо превращает активное поле боя в среду разработки продуктов для иностранных оборонных компаний. Международные производители получают данные о работоспособности в реальном времени и итеративную обратную связь из боевых условий — выгоды, которые в обычных условиях потребовали бы десятилетий моделирования при огромных затратах.

Привлекательность программы для иностранных компаний заключается именно в экстернализации рисков. Как объяснило руководство Brave1: «В Украине всё происходит значительно быстрее: не нужно месяцами ждать разрешений на испытания, а обратная связь от технических и военных экспертов поступает почти мгновенно». Скорость является прямой функцией отсутствия регуляторных мер безопасности, которые в обычных условиях сопровождают развёртывание непроверенных систем вооружений [1]. В гражданском мире испытание непроверенного медицинского устройства на пациентах без разрешения регулятора представляло бы собой уголовное преступление. В военной сфере — это конкурентное преимущество.

Структурная особенность третья: эпистемическая непрозрачность

Третья структурная особенность, выявленная Салливаном, — эпистемическая непрозрачность — вероятно, наиболее коварна, поскольку подрывает саму возможность оценки того, приводят ли первые две особенности к приемлемым результатам.

В гражданской сфере сбои ИИ, как правило, обнаруживаются быстро. Если чат-бот фабрикует правовые ссылки — судья это замечает. Если ИИ для найма дискриминирует — истцы подают иски. Если беспилотный автомобиль становится причиной гибели человека — расследование публично. Эти механизмы обратной связи — при всём их несовершенстве — создают возможности для корректировки, ответственности и итеративного улучшения.

В военных приложениях каждый уровень этой петли обратной связи деградирован. Операционно — оценка точности высокорисковых решений затруднена независимо от того, принимаются ли они людьми или машинами. Доступ к «истинной картине» в большинстве оперативных ситуаций фундаментально неполон. Человеческое сознание в таких условиях предпочитает когерентность неопределённости, а институциональное давление — как имплицитное, так и эксплицитное — вознаграждает нарративы успеха. Салливан ссылается на военные исследования, согласно которым примерно половина инцидентов с потерями среди мирных жителей в период 2007–2012 годов была результатом ошибочной идентификации, причём предвзятость подтверждения представляла собой системную структурную проблему [1].

Правовые доктрины усугубляют эту операционную непрозрачность. Режимы засекречивания ограничивают доступ к данным, необходимым для независимой оценки систем ИИ. Доктрины, такие как привилегия государственной тайны и ограничения правительственной ответственности, защищают военные технологии от внешней проверки. Правовые стандарты подотчётности в контексте национальной безопасности существенно полагаются на оценки исполнительной власти — которые сами формируются институциональными стимулами представлять зарождающиеся технологии как эффективные и законопослушные [1].

Регулирование через контракт: сопутствующий кризис

Если анализ Салливана объясняет, почему военный ИИ структурно аномален, сопутствующая статья Джессики Тиллипман — профессора юридической школы Университета Джорджа Вашингтона и специалиста по государственным закупкам — объясняет, как механизмы управления не успевают за развитием [2]. Диагноз Тиллипман столь же тревожен: Соединённые Штаты фактически перешли к регулированию военного ИИ через двусторонние контракты с поставщиками, а не через законы, нормативные акты или демократическое обсуждение.

Эта модель «регулирования через контракт» страдает несколькими структурными дефицитами. Контракты обязывают только подписавшие их стороны. Они лишены демократической подотчётности и институциональной устойчивости, которые обеспечивают законодательные акты. Правоприменение зависит не от публичных институтов, а от технических средств контроля, которые поставщик может поддерживать после развёртывания модели внутри государственной системы [2].

Треугольник Anthropic — Пентагон — OpenAI

Последовательность событий вокруг 27 февраля 2026 года наглядно иллюстрирует тезис Тиллипман. Меморандум Хегсета о стратегии ИИ предписывал включение формулировки «любое законное использование» во все контракты Министерства обороны на ИИ в течение 180 дней, фактически обязывая поставщиков снять все ограничения помимо законодательных. Когда Anthropic отказалась отступить от своих «красных линий» в отношении массового наблюдения и автономного оружия, Пентагон присвоил ей статус угрозы в цепочке поставок [2].

Спустя часы OpenAI объявила о соглашении с Пентагоном. Сделка была согласована за считанные дни — генеральный директор Сэм Альтман впоследствии признал, что она была «спешной» и «выглядела оппортунистически и небрежно». Соглашение формулирует ограничения через ссылки на внешние правовые режимы — Четвёртую поправку, Закон о наблюдении за иностранной разведкой (FISA), законы о разведывательном надзоре — но фактически передаёт интерпретативные полномочия Пентагону [2].

Вы не принимаете оперативные решения. Пентагон прислушается к техническим рекомендациям OpenAI, но не хочет, чтобы компания выражала мнения о том, являются ли те или иные военные действия хорошей или плохой идеей.

Возможно, наиболее показательна откровенная оценка Альтманом конкурентной позиции OpenAI: «Я верю, что у нас будут лучшие модели, которые побудят правительство работать с нами, даже если наш стек безопасности их раздражает». И его указание на структурное давление, ограничивающее даже эту минимальную защиту: «Будет как минимум ещё один игрок, предположительно xAI, который фактически скажет: "Мы сделаем всё, что захотите"» [2].

Конституционный вопрос

Тиллипман выявляет дополнительную структурную проблему регулирования через контракт: неадекватность контрактных средств защиты в контексте федеральных закупок. Даже там, где контракт содержит надёжные ограничения, правительство обладает уникальными полномочиями, включая одностороннее прекращение «по удобству» и право направлять изменения. Если соглашения структурированы как так называемые Other Transaction (OT), они действуют за рамками Федерального регламента закупок, а механизмы разрешения споров существуют лишь в той мере, в какой стороны их согласовали [2].

Ситуация с Anthropic демонстрирует ещё более жёсткую реальность. Военные командиры настолько зависимы от Claude, что если бы Anthropic потребовала прекратить использование, администрация использовала бы «государственные полномочия» для сохранения технологии до появления замены. Когда единственное средство правовой защиты поставщика — расторжение контракта — может быть аннулировано государством, контракт перестаёт функционировать как инструмент управления [2].

Исторические параллели и путь вперёд

Салливан отмечает, что правовые системы ранее демонстрировали способность к адаптации в условиях технологических потрясений. Появление ядерного оружия породило режим нераспространения, кардинально изменивший контроль за вооружениями. Прежние утверждения о непригодности международного права для новых форм конфликта — включая операции против негосударственных субъектов — в конечном счёте уступили место доктринальной эволюции [1].

Военный ИИ может потребовать аналогичного парадигменного сдвига: не простого распространения существующих рамок, а переосмысления того, как подотчётность, предосторожность и надзор функционируют, когда процессы принятия решений становятся частично непрозрачными и темпорально сжатыми. Салливан предлагает, чтобы нормы международного гуманитарного права регулировали не только результаты в момент удара, но и требовали конструкционных решений, разумно обеспечивающих законность применения по умолчанию — концепцию, которую он именует «предшествующие правовые конструкционные ограничения» [1].

Цена бездействия

Совокупность анализов Салливана и Тиллипман рисует портрет управления военным ИИ, которое одновременно структурно неадекватно и стремительно деградирует. Пентагон развернул передовые инструменты ИИ для миллионов сотрудников. Украина превратила свою линию фронта в многонациональный полигон. Израиль продемонстрировал, что ИИ-целеуказание может драматически расширить масштаб допустимого насилия, формально не нарушая международное гуманитарное право. Другие государства — Китай, Иран, Саудовская Аравия, ОАЭ — спешат по аналогичным траекториям [1].

Тем временем даже скромные международные усилия по правовому ограничению военного ИИ выглядят нежизнеспособными, а национальные регуляторные рамки не проявляют готовности ограничивать военные инициативы в условиях обостряющейся геополитической конкуренции. Иск Anthropic — оспаривающий присвоенный статус угрозы в цепочке поставок как беспрецедентный, неконституционный и нарушающий права Первой поправки — может привести к первому судебному испытанию этих границ. Но судебный процесс реактивен: он касается вчерашних нарушений, а не завтрашних архитектур.

Последствия для индустрии ИИ

Для ИИ-компаний расхождение Anthropic — OpenAI представляет определяющий стратегический выбор. Позиция Anthropic — что некоторые виды использования её технологии недопустимы независимо от их законности — фундаментально несовместима с мандатом Пентагона на «любое законное использование». Позиция OpenAI — что правительство должно интерпретировать законность, а компания — предоставлять лучшие технологии — коммерчески устойчива, но этически уязвима [2].

Разрешение этого противостояния, вероятно, задаст шаблон не только для закупок военного ИИ в США, но и для глобального рынка. Если модель «любого законного использования» возобладает, минобороны по всему миру получат готовый рецепт для демонтажа поставщических мер безопасности в системах ИИ. Если позиция Anthropic будет подтверждена — судебно или через рыночную конкуренцию — это создаст прецедент, согласно которому компании ИИ могут содержательно ограничивать использование своих технологий даже суверенными правительствами.

Заключение: за пределами нормальности

Концепция Нараянана и Капура для понимания ИИ как «нормальной» технологии остаётся ценной для подавляющего большинства контекстов, в которых ИИ внедряется. В здравоохранении, образовании, финансах и бесчисленных других секторах внедрение ИИ будет оставаться постепенным, неравномерным и ограниченным теми же институциональными, экономическими и регуляторными силами, которые управляли каждой предшествующей технологией общего назначения [3].

Но военная сфера иная — структурно, институционально и с точки зрения последствий. Механизмы обратной связи, позволяющие нормальным технологиям регулироваться через инкрементальную корректировку, в военных приложениях ослаблены или отсутствуют. Издержки несут те, кто не может влиять на закупочные решения. Данные о производительности засекречены. Стратегическая конкуренция вознаграждает скорость за счёт обсуждения. А структуры управления, которые могли бы компенсировать эти недостатки, демонтируются в пользу двусторонних контрактов, которые — как показали события — могут быть отменены в тот момент, когда становятся неудобными [1][2].

Смогут ли институты эволюционировать достаточно быстро, чтобы ответить на эту аномальность, — остаётся неопределённым. Ясно одно: будущее военного ИИ будет определяться не только техническими возможностями, но и тем, смогут ли правовые и институциональные рамки адаптироваться к сфере, где темп машинной войны всё больше опережает механизмы, призванные его ограничивать. Ответ на этот вопрос повлияет не только на будущее войны, но и на траекторию глобальной дискуссии об управлении ИИ — потому что прецеденты, устанавливаемые сегодня на поле боя, неизбежно повлияют на нормы, применяемые повсюду завтра [1][4].

📚 Источники и ссылки

# Source Link
[1] Military AI as 'Abnormal' Technology Scott Sullivan / Lawfare, 2026 lawfaremedia.org
[2] Military AI Policy by Contract: The Limits of Procurement as Governance Jessica Tillipman / Lawfare, 2026 lawfaremedia.org
[3] AI as Normal Technology Arvind Narayanan & Sayash Kapoor / Knight First Amendment Institute, 2025 knightcolumbia.org
[4] Lethal AI weapons are here: how can we control them? David Adam / Nature, 2024 nature.com
Share X Reddit LinkedIn Telegram Facebook