Удаления ChatGPT взлетели на 295% после партнёрства OpenAI с Пентагоном: пользователи протестуют
Решение OpenAI о партнёрстве с Министерством обороны США вызвало беспрецедентный пользовательский бунт: количество удалений ChatGPT выросло на 295%, в то время как Claude от Anthropic фиксирует рекордный приток новых пользователей — демонстрируя, что этические позиции ИИ-компаний напрямую влияют на рыночную долю.
Ключевые выводы
Удаления ChatGPT выросли на 295% после объявления OpenAI о партнёрстве с Пентагоном, обнажив острое противоречие между коммерческим ростом компании и её изначальной миссией безопасного ИИ. Пользовательский протест стал одной из крупнейших волн отказов от ИИ-продукта.
Решение OpenAI о партнёрстве с Министерством обороны США спровоцировало одну из самых масштабных волн пользовательского протеста в истории ИИ-индустрии. Данные Sensor Tower фиксируют рост удалений ChatGPT на 295%, в то время как конкурирующий Claude от Anthropic зафиксировал рекордный приток новых пользователей.
Сделка, вызвавшая бурю
Генеральный директор OpenAI Сэм Альтман объявил о партнёрстве с Министерством обороны 28 февраля 2026 года, позиционируя его как ответственное сотрудничество, ограниченное «оборонительными» задачами. Однако формулировки соглашения оставляли значительное пространство для интерпретации, а пользователи быстро связали это решение с более широкой тенденцией коммерциализации ИИ-технологий в военных целях.
Контроверзия была усилена показательным контрастом: Anthropic, главный конкурент OpenAI, публично подтвердила свою позицию о запрете использования Claude в военных операциях — хотя, как выяснилось позднее, это обещание оказалось далеко не однозначным.
Рыночный эффект: выигрыш Claude — потеря ChatGPT
Данные рисуют неумолимую картину. Количество загрузок ChatGPT в США снизилось на 13% в субботу после объявления, загрузки Claude выросли на 51% в день анонса. Но наиболее показательна статистика отзывов: количество однозвёздочных рецензий ChatGPT взлетело на 775%, а пятизвёздочных — упало вдвое.
Показатели пользовательского настроения были столь же драматичны. Волна негативных отзывов содержала повторяющиеся темы: «ИИ не должен использоваться для убийства людей», «перехожу на Claude», «удалил и больше не вернусь». Масштаб реакции продемонстрировал, что этические позиции ИИ-компаний являются реальным рыночным фактором, а не абстрактной темой для дискуссий.
Альтман признаёт ошибки
В примечательном признании Сэм Альтман публично заявил, что сделка с Минобороны была «представлена неоптимально» и что компания «могла лучше объяснить ограничения и цели партнёрства». Это редкая для руководителя технологической компании уступка общественному давлению.
Последствия затронули и внутренние ряды OpenAI. Кэйтлин Калиновски, возглавлявшая аппаратное подразделение компании, покинула OpenAI, сославшись по имеющимся данным на несогласие с направлением развития компании. Уход ключевых специалистов подчеркнул глубину внутреннего раскола.
Переломный момент для ИИ-индустрии
Этот эпизод представляет поворотный момент в отношениях между ИИ-компаниями и их пользовательской базой. Впервые этическая позиция компании привела к измеримому и массовому переходу пользователей к конкуренту — демонстрируя, что в мире ИИ, где переключение между сервисами не требует усилий, ценности компании становятся конкурентным преимуществом или уязвимостью.
Инцидент также подчёркивает растущую стратегическую ценность этического позиционирования в ИИ-индустрии. Anthropic, которая последовательно культивировала имидж «ответственной ИИ-компании», оказалась главным коммерческим бенефициаром этического провала конкурента — мощный сигнал для всего рынка.