Nvidia заключает сделку на $20 миллиардов с Groq, делая ставку на инференс-технологии за пределами GPU
Nvidia подписала соглашение на $20 миллиардов о лицензировании технологии Language Processing Unit от стартапа Groq и найме 80% его инженеров, оставив облачное подразделение Groq работать самостоятельно под новым руководством.
Ключевые выводы
Сделка Nvidia с Groq на $20 миллиардов — крупнейший шаг GPU-гиганта в сторону диверсификации: компания получает технологию инференса на базе Language Processing Unit и 80% инженерного персонала Groq. Это стратегический поворот на фоне смещения ИИ-индустрии от обучения к развёртыванию моделей в реальном времени.
Nvidia заключила масштабное соглашение на $20 миллиардов о лицензировании технологии Language Processing Unit (LPU) компании Groq и найме примерно 80% её инженерного состава. Сделка, объявленная в конце декабря 2025 года, представляет собой самую амбициозную стратегическую диверсификацию Nvidia с момента перехода компании от игровых GPU к ИИ-ускорителям почти десятилетие назад.
Это не классическое поглощение — Groq продолжит работать как независимая компания, а её облачное подразделение останется полностью функциональным под руководством нового CEO Саймона Эдвардса. Однако масштаб передачи технологий и кадров делает эту сделку одной из крупнейших в истории ИИ, уступая лишь многолетним инвестициям Microsoft в OpenAI.
Почему Groq важен: преимущество LPU
Language Processing Unit от Groq реализует принципиально иной подход к ИИ-вычислениям по сравнению с GPU-архитектурой Nvidia. GPU отлично справляются с параллельной обработкой, но изначально проектировались для рендеринга графики и были адаптированы для ИИ-задач. LPU от Groq, напротив, создан с нуля специально для ИИ-инференса — процесса использования обученных моделей для генерации предсказаний и выводов в режиме реального времени.
Ключевая инновация Groq — детерминистичная модель исполнения. Традиционные GPU используют кэши и динамическую диспетчеризацию, что вносит непредсказуемую задержку. LPU устраняют эту вариативность благодаря архитектуре Tensor Streaming Architecture, которая компилирует операции модели в фиксированное расписание на этапе развёртывания. Результат — скорость инференса в 10-18 раз выше, чем у конкурирующих GPU-решений, при значительно меньшем энергопотреблении на токен.
Этот разрыв в производительности делает сделку стратегически значимой. По мере взросления ИИ-индустрии узким местом становится не обучение — где GPU Nvidia доминируют безоговорочно — а инференс, где эффективность, задержка и стоимость запроса определяют коммерческую жизнеспособность.
Бизнес-логика: обучение насыщается, инференс взрывается
Лидерство Nvidia в оборудовании для обучения ИИ практически неоспоримо — компания контролирует около 90% рынка чипов для обучения, а её программная экосистема CUDA создаёт огромные издержки переключения. Но экономика развёртывания ИИ стремительно эволюционирует.
По отраслевым оценкам, инференс-нагрузки сейчас составляют более 60% общих расходов на ИИ-вычисления и растут быстрее, чем обучение. Каждый запрос к ChatGPT, каждый ИИ-результат поиска, каждое решение автономного автомобиля зависит от инференса.
Приобретя технологию LPU от Groq, Nvidia позиционирует себя для доминирования на обоих сторонах рынка. Компания может предложить клиентам полное решение жизненного цикла ИИ: обучение на GPU Nvidia, развёртывание на инференс-оборудовании Nvidia-Groq.
Структура сделки: acqui-hire плюс технологическое лицензирование
| Компонент сделки | Детали |
|---|---|
| Общая стоимость | $20 миллиардов |
| Технология | Эксклюзивная лицензия на архитектуру LPU и IP Groq |
| Кадры | ~80% инженеров Groq переходят в Nvidia |
| Руководство | Основатель Джонатан Росс и президент Санни Мадра присоединяются к Nvidia |
| Статус Groq | Остаётся независимой; облачный юнит под новым CEO Саймоном Эдвардсом |
| Ранний клиент | OpenAI — первый заказчик новых чипов |
| Сроки | Новые чипы ожидаются на GTC 2026 (март) |
Основатель Groq Джонатан Росс и президент компании Санни Мадра переходят в Nvidia, привнося институциональные знания, которые невозможно получить через лицензирование. Росс ранее работал в Google, где помогал проектировать первый Tensor Processing Unit (TPU).
Реакция индустрии: партнёры и конкуренты отвечают
OpenAI, по имеющимся данным, станет первым клиентом новых процессоров Nvidia с технологией Groq, что свидетельствует о том, что преимущество стартапа в инференсе уже привлекло внимание крупнейшего разработчика ИИ-моделей.
Эта сделка фундаментально меняет ландшафт инференса. Nvidia и так доминировала в обучении — теперь она позиционируется для захвата и инференса. Каждая другая чиповая компания получила гораздо более сложную задачу.
Облачные провайдеры — AWS, Microsoft Azure и Google Cloud — внимательно наблюдают за ситуацией. Все трое вложили миллиарды в собственные ИИ-чипы. Комбинация Nvidia-Groq может вынудить их ускорить разработку специализированного инференс-оборудования.
Что дальше: GTC 2026 и перспективы
Nvidia планирует представить первые продукты с технологией Groq на конференции GTC 2026 в марте. Отраслевые наблюдатели ожидают появления нового класса инференс-ускорителей, сочетающих производственный масштаб Nvidia и экосистему CUDA с детерминистичной архитектурой исполнения Groq.
Сделка Nvidia-Groq отмечает критическую точку перегиба в индустрии ИИ-оборудования. По мере смещения фокуса с обучения крупнейших моделей на их эффективное развёртывание именно те компании, которые контролируют технологии инференса, будут держать ключи к коммерческому будущему ИИ.