Пентагон признал Anthropic «риском для цепочки поставок» и запретил Claude для оборонных подрядчиков
Министерство обороны США формально запретило ИИ Claude от Anthropic для военных приложений после отказа компании снять защитные ограничения для систем массовой слежки и автономного оружия — впервые крупный ИИ-стартап попал в чёрный список Пентагона.
Ключевые выводы
Пентагон включил Anthropic в список «рисков для цепочки поставок» и запретил использование Claude оборонными подрядчиками — после того как компания отказалась снять ограничения безопасности. Беспрецедентный запрет обнажает неразрешимое противоречие между ИИ-безопасностью и военными потребностями.
Министерство обороны США предприняло беспрецедентный шаг, формально включив Anthropic, одну из ведущих американских ИИ-компаний, в категорию «риска для цепочки поставок» — фактически запретив использование моделей Claude оборонными подрядчиками. Это первый случай, когда крупный американский ИИ-стартап попал в чёрный список Пентагона, создающий сейсмический сдвиг в отношениях между Кремниевой долиной и оборонным истеблишментом.
Противостояние вокруг защитных ограничений
Запрет стал прямым следствием отказа Anthropic выполнить требования Министерства обороны о снятии конкретных механизмов безопасности с ИИ-моделей. Согласно многочисленным источникам, Пентагон потребовал доступ к Claude без ограничений, препятствующих использованию для массовой слежки за гражданами США и полностью автономных систем вооружения.
Генеральный директор Anthropic Дарио Амодеи заявил, что компания не может выполнить эти требования, ссылаясь как на условия обслуживания, так и на основополагающую миссию ответственной разработки ИИ. Пентагон ответил угрозой применить Закон об оборонном производстве или присвоить Anthropic статус «риска для цепочки поставок» — угроза, которая была в итоге реализована.
Claude в Иране: разведывательный триггер
Ситуацию усложнили данные разведки, подтвердившие, что ИИ Claude активно использовался в Иране — вероятно, через несанкционированный доступ или дистрибуцию через третьих лиц. Этот факт дал Пентагону дополнительное обоснование для присвоения статуса «риска для цепочки поставок», аргументируя, что неспособность Anthropic контролировать распространение своей технологии представляет угрозу национальной безопасности.
Последствия за пределами Anthropic
Действие Пентагона посылает чёткий сигнал всей ИИ-индустрии: компании, отказывающиеся учитывать военные требования, могут столкнуться с формальным исключением из оборонных и разведывательных контрактов. Это создаёт фундаментальное противоречие для ИИ-компаний, построивших свою репутацию и рыночные позиции на принципах ответственного ИИ.
| Компания | Позиция по оборонному ИИ | Статус |
|---|---|---|
| Anthropic | Отказалась снять защитные ограничения | Признана «риском для цепочки поставок» |
| OpenAI | Активное партнёрство с Минобороны | Подрядчик (с изменёнными условиями) |
| Gemini Enterprise доступен для обороны | Активное сотрудничество | |
| Meta | Открытые модели доступны для военных | Без формальных ограничений |
Решение может иметь каскадный эффект за пределами США. Союзные государства, обычно следующие руководствам Пентагона по закупкам, могут ввести аналогичные ограничения, потенциально изолируя Anthropic от значительной доли глобального рынка оборонного ИИ. Для всей индустрии этот эпизод поднимает экзистенциальный вопрос: может ли компания оставаться коммерчески жизнеспособной, сохраняя принципы безопасности, конфликтующие с требованиями мощнейшей армии мира?