Nvidia заключает сделку на $20 миллиардов с Groq, делая ставку на инференс-технологии за пределами GPU
Чипы и инфраструктура March 9, 2026 📍 Сюктерка, Россия News

Nvidia заключает сделку на $20 миллиардов с Groq, делая ставку на инференс-технологии за пределами GPU

Nvidia подписала соглашение на $20 миллиардов о лицензировании технологии Language Processing Unit от стартапа Groq и найме 80% его инженеров, оставив облачное подразделение Groq работать самостоятельно под новым руководством.

Ключевые выводы

Сделка Nvidia с Groq на $20 миллиардов — крупнейший шаг GPU-гиганта в сторону диверсификации: компания получает технологию инференса на базе Language Processing Unit и 80% инженерного персонала Groq. Это стратегический поворот на фоне смещения ИИ-индустрии от обучения к развёртыванию моделей в реальном времени.


Nvidia заключила масштабное соглашение на $20 миллиардов о лицензировании технологии Language Processing Unit (LPU) компании Groq и найме примерно 80% её инженерного состава. Сделка, объявленная в конце декабря 2025 года, представляет собой самую амбициозную стратегическую диверсификацию Nvidia с момента перехода компании от игровых GPU к ИИ-ускорителям почти десятилетие назад.

Это не классическое поглощение — Groq продолжит работать как независимая компания, а её облачное подразделение останется полностью функциональным под руководством нового CEO Саймона Эдвардса. Однако масштаб передачи технологий и кадров делает эту сделку одной из крупнейших в истории ИИ, уступая лишь многолетним инвестициям Microsoft в OpenAI.

Почему Groq важен: преимущество LPU

Language Processing Unit от Groq реализует принципиально иной подход к ИИ-вычислениям по сравнению с GPU-архитектурой Nvidia. GPU отлично справляются с параллельной обработкой, но изначально проектировались для рендеринга графики и были адаптированы для ИИ-задач. LPU от Groq, напротив, создан с нуля специально для ИИ-инференса — процесса использования обученных моделей для генерации предсказаний и выводов в режиме реального времени.

Ключевая инновация Groq — детерминистичная модель исполнения. Традиционные GPU используют кэши и динамическую диспетчеризацию, что вносит непредсказуемую задержку. LPU устраняют эту вариативность благодаря архитектуре Tensor Streaming Architecture, которая компилирует операции модели в фиксированное расписание на этапе развёртывания. Результат — скорость инференса в 10-18 раз выше, чем у конкурирующих GPU-решений, при значительно меньшем энергопотреблении на токен.

Source: Groq Systems / MLPerf Benchmark, 2025

Этот разрыв в производительности делает сделку стратегически значимой. По мере взросления ИИ-индустрии узким местом становится не обучение — где GPU Nvidia доминируют безоговорочно — а инференс, где эффективность, задержка и стоимость запроса определяют коммерческую жизнеспособность.

Бизнес-логика: обучение насыщается, инференс взрывается

Лидерство Nvidia в оборудовании для обучения ИИ практически неоспоримо — компания контролирует около 90% рынка чипов для обучения, а её программная экосистема CUDA создаёт огромные издержки переключения. Но экономика развёртывания ИИ стремительно эволюционирует.

По отраслевым оценкам, инференс-нагрузки сейчас составляют более 60% общих расходов на ИИ-вычисления и растут быстрее, чем обучение. Каждый запрос к ChatGPT, каждый ИИ-результат поиска, каждое решение автономного автомобиля зависит от инференса.

Source: IDC Worldwide AI Infrastructure Tracker, 2026

Приобретя технологию LPU от Groq, Nvidia позиционирует себя для доминирования на обоих сторонах рынка. Компания может предложить клиентам полное решение жизненного цикла ИИ: обучение на GPU Nvidia, развёртывание на инференс-оборудовании Nvidia-Groq.

Структура сделки: acqui-hire плюс технологическое лицензирование

Компонент сделки Детали
Общая стоимость $20 миллиардов
Технология Эксклюзивная лицензия на архитектуру LPU и IP Groq
Кадры ~80% инженеров Groq переходят в Nvidia
Руководство Основатель Джонатан Росс и президент Санни Мадра присоединяются к Nvidia
Статус Groq Остаётся независимой; облачный юнит под новым CEO Саймоном Эдвардсом
Ранний клиент OpenAI — первый заказчик новых чипов
Сроки Новые чипы ожидаются на GTC 2026 (март)

Основатель Groq Джонатан Росс и президент компании Санни Мадра переходят в Nvidia, привнося институциональные знания, которые невозможно получить через лицензирование. Росс ранее работал в Google, где помогал проектировать первый Tensor Processing Unit (TPU).

Реакция индустрии: партнёры и конкуренты отвечают

OpenAI, по имеющимся данным, станет первым клиентом новых процессоров Nvidia с технологией Groq, что свидетельствует о том, что преимущество стартапа в инференсе уже привлекло внимание крупнейшего разработчика ИИ-моделей.

Эта сделка фундаментально меняет ландшафт инференса. Nvidia и так доминировала в обучении — теперь она позиционируется для захвата и инференса. Каждая другая чиповая компания получила гораздо более сложную задачу.

Облачные провайдеры — AWS, Microsoft Azure и Google Cloud — внимательно наблюдают за ситуацией. Все трое вложили миллиарды в собственные ИИ-чипы. Комбинация Nvidia-Groq может вынудить их ускорить разработку специализированного инференс-оборудования.

Что дальше: GTC 2026 и перспективы

Nvidia планирует представить первые продукты с технологией Groq на конференции GTC 2026 в марте. Отраслевые наблюдатели ожидают появления нового класса инференс-ускорителей, сочетающих производственный масштаб Nvidia и экосистему CUDA с детерминистичной архитектурой исполнения Groq.

Сделка Nvidia-Groq отмечает критическую точку перегиба в индустрии ИИ-оборудования. По мере смещения фокуса с обучения крупнейших моделей на их эффективное развёртывание именно те компании, которые контролируют технологии инференса, будут держать ключи к коммерческому будущему ИИ.

Share X Reddit LinkedIn Telegram Facebook