Nvidia представит специализированный ИИ-процессор на базе Groq
На конференции GTC 2026 компания Nvidia планирует представить новый тип процессора, разработанный специально для этапа вывода (инференса) нейросетей. Это решение знаменует собой отход от многолетней стратегии использования универсальных графических чипов для всех задач искусственного интеллекта.
Nvidia привлекла ключевых инженеров стартапа Groq, приобретённого в конце прошлого года за 20 миллиардов долларов. В рамках сделки к компании присоединились ключевые инженеры, включая основателя Groq и бывшего разработчика чипов Google Джонатана Росса. Основным технологическим активом стали модули обработки языка (LPU), изначально созданные для ускорения логических операций и текстовой генерации с меньшими задержками по сравнению с традиционными GPU.
В отличие от графических процессоров Blackwell и Rubin, которые зависят от дефицитной и дорогой памяти с высокой пропускной способностью (HBM) производства SK Hynix и Micron, новые чипы базируются на статической памяти с произвольным доступом (SRAM). Хотя SRAM обладает меньшей емкостью, её низкая задержка делает архитектуру более эффективной для стадий вывода, основанных на рассуждениях, а не на массовых вычислениях для обучения моделей.
Новый специализированный процессор будет работать в паре с графическими чипами следующего поколения Vera Rubin. Компании планируют объединить эти решения через интерфейс NVLink Fusion, используя гибридную компоновку TSMC с применением технологий SoIC или EMIB. Обсуждается возможность появления конфигураций вычислительных лотков на 64, 128 и 256 модулей LPU.
Профильные источники сообщают, что использование таких систем позволит оптимизировать различные стадии обработки ИИ-запросов. Если текущие чипы Rubin CPX справляются с предварительным заполнением (prefill) запросов, то блоки на базе технологий Groq возьмут на себя стадию декодирования. Такая связка обеспечит гибкость при развёртывании инфраструктуры в современных центрах обработки данных.
Смена стратегии происходит на фоне растущей конкуренции со стороны Google и Meta*, которые разрабатывают собственные специализированные чипы. Meta* уже представила внутреннюю линейку из четырёх процессоров для инференса. По прогнозам Bank of America, к 2030 году рынок дата-центров для ИИ достигнет 1,2 триллиона долларов, а на стадию вывода будет приходиться 75% всех расходов отрасли по сравнению с 50% в 2025 году.
Помимо экономической эффективности, новые чипы решают проблему охлаждения. Глава стартапа FuriosaAI Джун Пайк отметил, что большинство существующих предприятий не могут поддерживать жидкостное охлаждение, необходимое для флагманских GPU Nvidia. Аналитик Creative Strategies Бен Баджарин отмечает, что рынок движется к отказу от универсальных решений в пользу диверсифицированных акселераторов, способных работать в стандартных дата-центрах.
В планы Nvidia входит внедрение архитектуры Feynman с глубокой интеграцией модулей LPU непосредственно на вычислительный кристалл. Технология A16 предоставит необходимое пространство для фронтальных соединений блоков обработки языка. Глава Nvidia Дженсен Хуанг сравнил сделку с Groq по значимости с покупкой Mellanox, подчеркнув переход к гетерогенным системам. Компания намерена продемонстрировать ранее не виденные образцы чипов на конференции GTC 2026.


