Пентагон признал Anthropic «риском для цепочки поставок» и запретил Claude для оборонных подрядчиков
Политика и регулирование March 8, 2026 📍 Hillsboro, United States News

Пентагон признал Anthropic «риском для цепочки поставок» и запретил Claude для оборонных подрядчиков

Министерство обороны США формально запретило ИИ Claude от Anthropic для военных приложений после отказа компании снять защитные ограничения для систем массовой слежки и автономного оружия — впервые крупный ИИ-стартап попал в чёрный список Пентагона.

Ключевые выводы

Пентагон включил Anthropic в список «рисков для цепочки поставок» и запретил использование Claude оборонными подрядчиками — после того как компания отказалась снять ограничения безопасности. Беспрецедентный запрет обнажает неразрешимое противоречие между ИИ-безопасностью и военными потребностями.


Министерство обороны США предприняло беспрецедентный шаг, формально включив Anthropic, одну из ведущих американских ИИ-компаний, в категорию «риска для цепочки поставок» — фактически запретив использование моделей Claude оборонными подрядчиками. Это первый случай, когда крупный американский ИИ-стартап попал в чёрный список Пентагона, создающий сейсмический сдвиг в отношениях между Кремниевой долиной и оборонным истеблишментом.

Противостояние вокруг защитных ограничений

Запрет стал прямым следствием отказа Anthropic выполнить требования Министерства обороны о снятии конкретных механизмов безопасности с ИИ-моделей. Согласно многочисленным источникам, Пентагон потребовал доступ к Claude без ограничений, препятствующих использованию для массовой слежки за гражданами США и полностью автономных систем вооружения.

Генеральный директор Anthropic Дарио Амодеи заявил, что компания не может выполнить эти требования, ссылаясь как на условия обслуживания, так и на основополагающую миссию ответственной разработки ИИ. Пентагон ответил угрозой применить Закон об оборонном производстве или присвоить Anthropic статус «риска для цепочки поставок» — угроза, которая была в итоге реализована.

Claude в Иране: разведывательный триггер

Ситуацию усложнили данные разведки, подтвердившие, что ИИ Claude активно использовался в Иране — вероятно, через несанкционированный доступ или дистрибуцию через третьих лиц. Этот факт дал Пентагону дополнительное обоснование для присвоения статуса «риска для цепочки поставок», аргументируя, что неспособность Anthropic контролировать распространение своей технологии представляет угрозу национальной безопасности.

Последствия за пределами Anthropic

Действие Пентагона посылает чёткий сигнал всей ИИ-индустрии: компании, отказывающиеся учитывать военные требования, могут столкнуться с формальным исключением из оборонных и разведывательных контрактов. Это создаёт фундаментальное противоречие для ИИ-компаний, построивших свою репутацию и рыночные позиции на принципах ответственного ИИ.

Компания Позиция по оборонному ИИ Статус
Anthropic Отказалась снять защитные ограничения Признана «риском для цепочки поставок»
OpenAI Активное партнёрство с Минобороны Подрядчик (с изменёнными условиями)
Google Gemini Enterprise доступен для обороны Активное сотрудничество
Meta Открытые модели доступны для военных Без формальных ограничений

Решение может иметь каскадный эффект за пределами США. Союзные государства, обычно следующие руководствам Пентагона по закупкам, могут ввести аналогичные ограничения, потенциально изолируя Anthropic от значительной доли глобального рынка оборонного ИИ. Для всей индустрии этот эпизод поднимает экзистенциальный вопрос: может ли компания оставаться коммерчески жизнеспособной, сохраняя принципы безопасности, конфликтующие с требованиями мощнейшей армии мира?

Share X Reddit LinkedIn Telegram Facebook