LPU высокий рост отгрузок зарезервирован? Nvidia выпустила платформу Vera Rubin 256 устройств на шкаф

robot
Генерация тезисов в процессе

На основной речи GTC 2026 был представлен новый чип под названием NVIDIA Groq 3 LPU.

В ночь со вторника по московскому времени NVIDIA официально анонсировала платформу Vera Rubin, включающую семь чипов, среди которых Groq 3 LPU (сокращенно LPU), а также Vera CPU, Rubin GPU, коммутатор NVLink 6, суперсетевая карта ConnectX-9, DPU BlueField-4 и Ethernet-коммутатор Spectrum-6.

Сообщается, что NVIDIA создаст раму Groq 3 LPX с 256 LPU, предоставляющую 128 ГБ (по 500 МБ SRAM на каждый LPU) SRAM и пропускную способность для inference 40 PB/с, а также соединит эти чипы через специальный расширительный интерфейс с пропускной способностью 640 ТБ/с на раму. Эта рама вместе с Vera Rubin NVL72, Vera CPU и еще четырьмя рамаками образует полноценную платформу AI-суперкомпьютера Vera Rubin.

NVIDIA заявила, что Groq 3 LPX является ускорителем inference для Vera Rubin, предназначенным для удовлетворения требований систем искусственного интеллекта к низкой задержке и большому контексту. Архитектура Vera Rubin и LPX спроектированы совместно, что позволяет идеально сочетать высокую производительность Rubin GPU и LPU, обеспечивая очень низкую задержку и сверхвысокую пропускную способность.

Гордон Мур отметил, что после интеграции LPX с платформой Vera Rubin, коэффициент пропускной способности inference к энергопотреблению увеличится в 35 раз. Чипы LPU будут производиться Samsung, а поставки рамы начнутся во второй половине этого года.

Вчера аналитик郭明錤 заявил, что после инвестиций NVIDIA в Groq, прогноз по отгрузкам LPU значительно вырос. Общие объемы поставок в 2026–2027 годах могут достигнуть 4–5 миллионов штук. Производство новых рамах начнется в четвертом квартале этого года, а в 2026–2027 годах ожидается от 300 до 500 и от 15 000 до 20 000 штук соответственно.

По его мнению, быстрый рост спроса на LPU в основном обусловлен внешними факторами. Во-первых, LPU тесно интегрирован с экосистемой NVIDIA (например, CUDA), что значительно снижает барьеры для разработки и внедрения приложений. Во-вторых, в отрасли быстро растет потребность в сверхнизколатентных inference, включая AI-агентов, а также новые приложения в реальном времени, для конечных пользователей и физических AI.

Стоит отметить, что в основной речи Гордон Мур также подчеркнул, что AI прошел ключевой этап перехода от восприятия к генерации, а затем к физическому и агентскому интеллекту.

Центральное агентство Цайтуань указывает, что при inference большие модели сталкиваются с задержками, которые напрямую влияют на пользовательский опыт. Основная задержка возникает на этапе Decode, а узким местом — пропускная способность памяти. LPU обладает более высокой пропускной способностью памяти, что сокращает задержки inference больших моделей. Кроме того, модели на базе LPU не только работают быстрее, но и имеют более выгодную цену, что дополнительно повышает пользовательский опыт.

Это агентство отмечает, что в настоящее время расход токенов значительно вырос, что стимулирует рост рынка inference-чипов. LPU имеет потенциал для постепенного проникновения на рынок inference-чипов и обладает высоким потенциалом роста. В связи с этим рекомендуется обратить внимание на компании: Zhimi Intelligence (участие в YuanChuan Micro), Xingchen Technology (многократное увеличение инвестиций в YuanChuan Micro), Sh电股份 (поставщик печатных плат для NVIDIA), Shenghong Technology (поставщик печатных плат для NVIDIA), Shenan Circuit.

(Источник: Caixin)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить