AI热点 6小时前 118 浏览次数 0 评论

英伟达:Rubin CPX 登场!要和博通 ASIC“掰掰手腕”

钛媒体APP

发布了 1267 文章

文 | 海豚投研

在最近博通带着 ASIC 高歌猛进的情况下,英伟达为首的 GPU 阵营明显是遇到了挑战。博通的股价在财报发布的当天上涨将近 10%,而$英伟达(NVDA.US) 和 AMD 分别下跌了 3% 和 6%。尤其是博通第四个客户的百亿订单,直接给市场带来了 ASIC 抢占 AI 核心芯片市场的期待。

如果将当前数据中心市场中核心芯片厂商的相关收入进行对比,博通在 AI 芯片市场的份额已经将近 1 成,实现了对英特尔和 AMD 的超越。博通当前具有 “3 个量产客户 +4 个潜在客户”,随着潜在客户的产品进入量产(比如第 4 个客户),有望给公司带来更多的增量。

$博通(AVGO.US)ASIC 持续追赶的情况下,英伟达在 AI 大会(AI Infra Summit)上突然宣布推出 “Rubin CPX” GPU,这是一款专门为海量上下文处理设计的新一代 GPU。该处理器致力于以突破性的速度与效率,使 AI 系统能够处理长达数百万个 token 的任务,包括软件编码及生成视频等方面。

对于本款 “Rubin CPX” GPU 新品,英伟达主要提了 3 个方面:

a)算力及内存:算力高达30PFLOPS(NVFP4 精度);配备128GB 高性价比 GDDR7 内存,加速高要求上下文工作负载。

虽然算力低于 3 月发布 Rubin GPU 的 50PFLOPS(FP4 精度),但与英伟达 GB300 NVL72 系统相比,这款专用 GPU 还提供了 3 倍更快的注意力机制(Attention Mechanism)。

公司计划在 2026 年推出常规 Rubin GPU 之后,于 2026 年底推出该产品。

b)配置及协作:Rubin CPX 可以与 NVIDIA Vera Rubin NVL144 CPX 平台中的 NVIDIA Vera CPU 和 Rubin 协同工作,进行生成阶段处理,形成一个完整的高性能分解式服务解决方案。

NVIDIA Vera Rubin NVL144 CPX——集成 36 个 Vera CPU、144 块 Rubin GPU 和 144 块 Rubin CPX GPU,提供 8 EFLOPs 的 NVFP4 算力,是 GB300 NVL72 的 7.5 倍。同时单个机架就能提供 100 TB 的高速内存和 1.7 PB/s 的内存带宽

Rubin CPX 提供多种配置,包括 Vera Rubin NVL144 CPX,可与 NVIDIA Quantum‑X800 InfiniBand 横向扩展计算架构或搭载英伟达 Spectrum-XGS 以太网技术和 ConnectX-9 SuperNIC 的 Spectrum-X 以太网网络平台结合使用。

Vera Rubin NVL144 CPX 能得到前所未有的规模变现,每投资 1 亿美元即可获得 50 亿美元 token 收益。

c)“专用 GPU” 的定位:Rubin CPX 专门用于上下文和预填充计算,从而显著提升海量上下文的相关性能。而原有 Rubin/Rubin Ultra GPU 则负责生成阶段的计算。

由于推理阶段往往分为上下文阶段和生成阶段两个环节,其中前者的限制点在计算能力,需要高吞吐量来处理和分析海量数据;后者的限制点在内存带宽,依赖于内存传输和高速互联来维持输出性能。

英伟达本次推出 Rubin CPX 的专用 GPU,主要针对于海量数据情况下,提升上下文阶段的速度。而在具体的 Rubin 体系中,通过 GPU+ 专用 GPU 的搭配,实现优化。其中 CPX 承担上下文阶段的工作,其中采用 GDDR7 内存,而不必要用 HBM 内存也能满足需求。而原有 Rubin GPU 仍负责生成环节。

综合(a+b+c)来看,海豚君认为英伟达本次突然宣布的 Rubin CPX,主要是对博通 ASIC 竞争的回应。而此前,市场也曾猜测过英伟达在 ASIC 方向布局的可能性,本次公布的 Rubin CPX 也是一个明确的答复

虽然 Rubin CPX 仍是 GPU 范畴,从具体职责来看,主要就是面向于推理来设计,承担上下文阶段的提速作用。随着 Rubin CPX 的发布,公司在 Rubin 阶段的产品形态也更加清晰。搭载 “CPU+GPU+CPX GPU” 的 NVIDIA Vera Rubin NVL144 CPX,将是 Rubin 阶段的主要产品,具体客户也将主要面向于核心云厂商等大型公司,这些也是 ASIC 的主要目标客群。

相比于英伟达的 GPU,ASIC 凭借成本端的优势,与核心云厂商逐步绑定合作关系。更为明显的是,博通已经拥有了 7 家客户/潜在客户(其中包含谷歌、Meta、字节等)。大型云服务商是云服务及 AI 芯片的最大购买方,如果放任博通发展,未来势必也会影响到英伟达的成长空间。

本次公司发布专用于 “推理” 的 Rubin CPX,是对博通等 ASIC 产品的直接回应。之前部分客户从 “性价比” 的角度尝试定制 ASIC 芯片,并取得不错的效果。而 Rubin CPX 的推出,也能对大规模云厂商起到 “降本增效” 的作用。与其面对自研的不确定性,采用英伟达的 CPX 及一整套 Rubin 方案也是一个选项。

在各家核心云厂商提升资本开支的情况下,近期博通拿到百亿订单和甲骨文的剩余履约合同价值也直接飙涨了 3000 亿。种种迹象都表明,当前美国大厂们都已经是基建狂魔了。而在 AI 需求旺盛的情况下,整个市场的蛋糕越做越大。英伟达和博通 “GPU vs ASIC 之争” 的问题,将回归到谁最终能分到更大的蛋糕。

钛媒体APP

钛媒体APP

1267 文章 177994 浏览次数 0 粉丝

评论 (0)

睡觉动画