英伟达与阿里重新定义AI评价体系,FLOPS逐渐被边缘化

2026-03-22 16:09:24
关注

英伟达与阿里重新定义AI评价体系,FLOPS逐渐被边缘化

图片由AI生成

文|姚金鑫、晓静

编辑|徐青阳

在2026年3月17日的GTC大会上,英伟达CEO黄仁勋以他标志性的皮夹克登台,进行了两个小时的演讲。演讲结束后,“英伟达要做Token之王”的话题迅速席卷网络。

然而,若仔细聆听演讲内容,不难发现黄仁勋反复强调的并不是Token本身,而是“每瓦Token数”(Tokens per Watt)。他明确指出,每一座AI数据中心或AI工厂的产出能力最终受到电力的限制。1GW的工厂永远不会变为2GW,这是物理规律决定的。因此,在电力固定的情况下,谁能实现更高的每瓦Token产出,谁就能拥有更低的成本与更高的收入。

这一观点,实际上是GTC 2026的核心主题。

尽管外界更关注英伟达Vera Rubin与Blackwell之间的性能对比、Groq LPX的35倍推理提速,甚至英伟达将数据中心推向太空的构想,这些技术突破固然重要,但它们共同体现了一个深层逻辑:在能源受限的条件下,如何最大化智能产出。

当黄仁勋将“Token/W”确立为核心评价标准时,实际上表明算力竞争的维度正在发生转变——从单一芯片性能,转向端到端的系统能效,从峰值计算能力,转向整体能源利用效率。

在现有产品和架构基础上,英伟达与黄仁勋仍受限于Token/W的指标。迈向真正的“Token之王”,还需经历多个阶段。

这是一种“智能度量语言”的迁移。而这一迁移所带来的产业视角,远比任何一款新芯片更具深远意义。

巧合的是,GTC大会开幕前一天,阿里巴巴宣布成立Alibaba Token Hub,由吴泳铭亲自领导。阿里将AI命名为“Token”,将Token上升至战略高度,同样反映出产业正从“芯片思维”转向“系统思维”。

GTC 2026最值得关注的,并非芯片本身

在GTC 2026上,Vera Rubin、Rubin POD、LPX、DSX AI Factory 等产品和术语依旧是焦点。然而,如果将其整体视作一个系统来看,会发现这次发布会的真正价值在于将算力竞争的边界从单一芯片扩展至整个计算基础设施。

Rubin被定义为POD级别的平台,多个机架协同构建大规模、统一的系统;DSX则作为AI工厂的参考设计,目标是最大化每瓦Token数。

这表明,行业竞争的重心已从“谁的芯片更快”,转向“谁的系统更高效”,即谁能在有限的电力、散热与网络条件下,实现稳定的智能输出。

而衡量这一输出的核心指标,正是“每瓦Token数”。

本文尝试从Token/W的度量角度,深入解读此次发布会的意义,并探讨它对AI基础设施产业未来发展的潜在影响。

系统竞争时代,评价体系必须超越芯片层面

芯片时代的评价体系以FLOPS、TOPS/W、bit/J等指标为主,这些术语能有效描述芯片的理论能力边界。

然而,当前的智能计算中心缺乏一个统一、客观、通用的衡量标准。传统上,数据中心以MW衡量用电量,国内则常用PFlops(基于FP16)作为算力指标。但相同的算力或电力,由于芯片、网络和散热方案的差异,实际产出效率也可能大相径庭。

原因在于,传统指标多为局部性能描述,如FLOPS反映计算潜力,bit/J反映能效,带宽体现通信能力。它们聚焦于芯片的某一维度,而非整体系统。

而AI系统真正要回答的问题是:在给定的电力、散热和空间限制下,能稳定输出多少有效的智能结果?这一问题,仅靠芯片层指标是无法回答的。

从英伟达的表述中可见,评价标准正在转向“Token成本”、“每瓦吞吐量”、“每瓦Token性能”以及“每瓦Token数”。

这意味着,度量语言正在从“部件语言”向“系统语言”迁移。

如果说芯片层的评价体系关注的是局部最优,那么系统层的度量则聚焦于整体最优。

Token/W连接了能源与智能的转换路径

在英伟达发布的GTC 2026演讲内容中,将Token称为现代AI的基本单元。这一说法准确揭示了其本质价值:无论是大语言模型、推理服务还是Agent系统,用户支付的费用最终都与Token的生成和处理能力直接挂钩。

从业务角度来看,Token具备三个关键优势:它与模型推理紧密耦合、与收入模型直接绑定,并适用于推理时代的新负载模式。

如多轮对话、长上下文处理、检索增强生成、工具调用和推理链等场景,很难用FLOPS来衡量,但在Token、延迟和有效吞吐量上都有明确的体现。

更关键的是,AI基础设施的发展正面临日益严峻的能源约束。根据国际能源署(IEA)的《Energy and AI》报告预测,到2030年,全球数据中心用电量将增长至约945TWh,其中AI将是主要驱动因素,美国将承担其中相当大的一部分。

换言之,未来AI产业的挑战表面上是芯片问题,实质上是能源、散热和基础设施优化的问题。

Token/W的价值正是在于它连接了电力输入与智能输出之间的完整路径:从能源开始,经过计算、网络、存储、调度和冷却,最终转化为Token的产出。

因此,Token/W并非简单替代FLOPS/W或bit/J,而是填补了此前被忽视的维度——能源到底转化为了多少智能。

这一概念的提出,标志着AI产业正从芯片中心主义向系统中心主义过渡。

作者一直主张从系统角度看待AI芯片:不仅要关注算力、带宽与接口参数,更需考虑其在系统中的协同能力、部署方式、能耗结构,以及其对实际业务产出的贡献。

GTC 2026在某种程度上验证了这一观点。当英伟达将叙事重点转向AI工厂时,表明行业正在完成从“AI芯片至上”到“计算系统至上”的认知升级。

这一转变至关重要。产业初期往往沉迷于部件参数,因其易于测量和宣传。但一旦进入规模化部署阶段,决定胜负的关键,通常是系统的组织与优化能力。

光互连在Token/W框架下的地位将显著提升

当评价体系迁移到系统层面,过去被视为辅助环节的光互连,其战略地位将显著上升。

传统上,光互连的讨论多以光模块、通信性能、能耗、带宽密度等为焦点,这些指标虽重要,但仍是组件或芯片层的描述。

在Token/W的框架下,光互连的价值在于其能降低大规模AI系统中数据搬运的能耗,提升将电力转化为Token的能力。

在NVIDIA的光网络产品介绍中,基于光子技术的CPO相比传统光模块,能提供最高5倍的能效提升,同时降低延迟,支持更大规模的AI工厂扩展。

这一说法的重点已不仅是链路性能,而是系统能效与规模的提升。

从产业逻辑来看,这一趋势合乎逻辑。随着模型规模增长、上下文变长、集群变大,能耗越来越多地来自数据搬运,而非计算单元。

提高Token/W,已不能仅依赖更强的GPU,还需依赖更高效的互连技术。

因此,光互连的重要性不仅在于前沿性,更在于它是大规模AI系统中不可或缺的节能手段。

光计算的逻辑逐渐清晰,但仍在探索阶段

相较于光互连,光计算仍处于早期发展阶段。通用性、精度、编译器、制造一致性、系统集成等问题仍在演进中。

但从系统角度看,其产业价值已开始显现。

Token/W强调的是端到端能效。谁能在一个高频、高密度、重复计算的路径上显著降低能耗,谁就有可能在系统层面提高Token产出效率。这一逻辑无需光计算替代整个GPU,也不要求其成为通用计算底座。

它只需要做到一件事:在某些关键任务中,降低系统的J/token,从而在固定能耗下提高Token产出。

因此,光计算的叙事需要从“器件效率”转向“系统贡献”。如果行业仍停留在TOPS/W或MAC/J的视角,它更像一个实验室技术;但如果行业转向Token/W的评价体系,它便有机会进入基础设施讨论。

这一转变对光计算意义重大。它终于有了与园区、电力、资本开支等对话的上层语言。

光互连与光计算,正成为AI基础设施主线

当算力竞争仍聚焦在芯片层时,光互连被视为I/O技术,光计算则被视作前沿探索。

但当算力竞争扩展至AI大规模系统基础设施时,情况发生了变化。系统的效率越来越依赖于密集计算能耗、数据搬运、上下文管理、节点间协同、供电与热管理等环节,而这些正是光学技术最有潜力发挥作用的领域。

从Token/W的角度看,光互连解决的是Token生成背后的搬运能耗;光计算则尝试优化Token背后的部分计算能耗。二者共同影响的是系统的整体Token产出效率。

这也是它们进入产业主线的根本原因。

更现实地说,除了芯片供应问题,未来的数据中心和AI工厂还面临电网接入、散热能力、园区能耗、机柜功率密度和投产速度等多重限制。IEA对AI能耗趋势的判断,以及NVIDIA对AI工厂的构想,都指向一个趋势:AI基础设施正在成为一个以能源为基础的系统工程。

从这一新方向出发,光互连和光计算正解决那些在传统电学路径下愈发昂贵、难以持续优化的问题——数据搬运的能耗,以及高密度计算的单位能耗。

背后体现的是一种系统思维的成熟。这也是为什么GTC 2026再次强调光子与硅光技术的原因:

当算力评价从芯片走向系统,光学将从前沿选项,逐步变为值得建设的基础设施。

从这个角度来看,CPO与光计算系统未来潜力巨大。

写在最后:AGI推进的主轴

作者在日常工作中,始终倡导建立客观、可衡量的算力评价标准,并采用Token/W方法对不同芯片进行评估。

回顾科技发展史,当内燃机的能量密度不断提高,汽车、飞机、火箭才能相继实现突破。

在AI时代,当系统的智能产出(即Token)与能耗比持续攀升时,智能才可能真正实现质的飞跃,AGI也才可能诞生。

GTC 2026真正值得铭记的,并非英伟达一家的成败,也非黄仁勋是否成为“Token之王”,而是AI时代新的评价标准的确立。

更重要的是,英伟达、阿里,甚至更多行业巨头,已经开始意识到,只有从系统思维出发,才能真正推动AI产业的可持续发展。

这与人类文明的演进方向不谋而合:用更少的能源,采集、传输和处理更多的信息。

AGI的诞生,也将遵循这一逻辑。

关于作者

本文作者姚金鑫(J叔)为芯片创业者,CCF高性能计算专委会执行委员。

来源:腾讯科技

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

广告
提取码
复制提取码
点击跳转至百度网盘