英伟达坚守HBM路线:SRAM虽快,却难解AI芯片容量瓶颈

2026-01-08 19:38:39
关注

英伟达坚守HBM路线:SRAM虽快,却难解AI芯片容量瓶颈

1月8日,科技媒体Tom's Hardware发布博文,披露了在CES 2026展会期间的一次问答环节中,英伟达首席执行官黄仁勋就“是否采用成本更低的SRAM替代高成本HBM”的行业热议给出回应。

SRAM(Static Random Access Memory,静态随机存取存储器)因其基于触发器的结构,拥有极低的延迟和高访问速度,但密度和容量受限,通常用于片上缓存。而HBM(High Bandwidth Memory,高带宽内存)则是基于3D堆叠工艺的DRAM架构,具备高密度、低功耗和超大带宽特性,广泛应用于GPU和AI系统,作为系统级主存与SRAM形成互补。

当前AI产业正积极推动降本增效。随着SRAM加速器、GDDR推理平台以及开源大模型的普及,业界逐渐萌发了减少对英伟达高端硬件依赖的可能。

尤其在基准测试和控制实验中,SRAM的快速响应特性使其表现出色,甚至被部分观点视为HBM的潜在替代选择。

黄仁勋并未否定SRAM在特定工作负载中的性能优势,但他指出:“在某些场景下,SRAM确实快得令人惊讶。”然而,当进入实际部署的AI系统后,SRAM的容量短板会迅速暴露。

据黄仁勋分析,SRAM的容量扩展速度远远落后于现代AI模型对存储资源的需求。其能承载的模型规模通常仅为HBM系统的1%。一旦模型规模超出SRAM的承载能力,系统必须切换至外部存储,从而抵消原本的速度优势。

他还强调了AI工作负载的高度多样性。当前主流模型涵盖混合专家架构(MOE)、多模态处理、扩散模型及自回归模型等,对硬件架构的要求各不相同。部分模型依赖显存容量,另一些则对互连带宽(如NVLink)提出更高需求,且这些需求在实际运行中可能随时变化。

因此,如果硬件设计过度优化某一特定模式(如纯SRAM架构),那么在工作负载转变后,高性能芯片可能陷入闲置。

基于上述考量,英伟达选择了继续推进HBM路线。黄仁勋指出,在数据中心环境中,硬件的灵活性直接影响整体经济效益。即使某种专用硬件在少数任务中表现出色,但若无法处理90%以上的通用任务,也会造成资源浪费。

尽管HBM的物料成本较高,但它能够适应算法和模型架构的快速演进,从而保障硬件在长周期运行中保持较高的利用率。

面对关于“开源模型是否会削弱英伟达技术壁垒”的提问,黄仁勋指出,开源并不等同于降低基础设施门槛。事实上,随着开放模型整合更长的上下文长度和更多模态,其对内存的需求也在同步增长。

英伟达选择承担HBM带来的高成本与复杂系统设计,正是为了保留“可选性”(Optionality):一方面,避免客户受限于单一性能路径;另一方面,确保自身硬件能够灵活应对模型架构的持续演进。

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

广告
提取码
复制提取码
点击跳转至百度网盘