![]()
实际的计算需求会远高于这个数字。
2026年3月16日,在圣何塞SAP Center座无虚席的会场里,黄仁勋用近三个小时的主题演讲完成了一次战略叙事的系统性升级。尽管他发布了七款芯片、五种机架级系统、六个开源模型家族和一个全新的AI智能体平台,但这绝不是异常产品发布会,这是一次对AI产业未来十年底层逻辑的重新定义。
在去年的GTC上,黄仁勋给出了"5000亿美元高置信度需求"的数字。一年后,他站在同一个舞台上说:"我看到了至少1万亿美元的需求,延续到2027年。而且我确信,实际的计算需求会远高于这个数字。"
这个数字不是个修辞的手法。它的背后是一个正在发生的产业范式转换:AI从"生成内容"走向"完成任务",从聊天机器人走向自主智能体,从训练主导走向推理主导。围绕这个转换,NVIDIA重新架构了从硅片到软件、从数据中心到太空的完整技术栈。
本文将从演讲原文出发,深度解构这场演讲中最值得AI从业者和投资者关注的七条主线。
01
三次拐点:
从ChatGPT到推理AI再到Agentic AI
黄仁勋用极其清晰的历史叙事框架,将过去两年AI领域的进展归纳为三次关键拐点,每一次都根本性地改变了计算需求的结构。
第一次拐点:ChatGPT与生成式AI。计算从"检索式"变为"生成式"("Computing used to be retrieval-based; now it's generative")。这一阶段的核心需求是大规模预训练,GPU主要服务于training workload。
第二次拐点:推理能力的涌现。以OpenAI O1、O3为代表的reasoning model出现,使AI具备了反思(reflection)、规划(planning)、分解(decomposition)和事实校验(grounding on truth)的能力。黄仁勋明确表示:"O1让生成式AI变得可信赖、以事实为基础。"这一阶段戏剧性地增加了输入和输出Token的需求量,因为AI不再只是一问一答,而是要"思考"。
第三次拐点:Agentic AI的到来。黄仁勋将Claude Code称为"第一个真正的智能体模型",它能读取文件、编写代码、编译、测试、评估、迭代。他直言:"Claude Code已经革命性地改变了软件工程。NVIDIA 100%的员工都在使用Claude Code、Codex和Cursor的某种组合……今天没有一个软件工程师不被一个或多个AI智能体辅助。"
这三次拐点的叠加效应是爆炸性的。老黄给出了一个惊人的数据框架:每个任务的计算需求增长了约10,000倍,用户使用量增长了约100倍,两者相乘,过去两年AI的计算需求增长了约100万倍。
从投资角度看,这个框架的核心含义是:AI不再是一个"训练完模型就结束"的一次性支出,而是变成了持续的、按Token计量的运营性支出。每一次AI"思考"、"行动"、"验证"都在消耗推理算力。这从根本上改变了AI基础设施的商业模型,从CapEx驱动转向CapEx+OpEx的双轮驱动。
02
Vera Rubin:
七芯协同的推理时代超级计算机
如果说三次拐点定义了"为什么",Vera Rubin平台就是NVIDIA给出的"怎么做"的答案。
七款芯片,五种机架,一台超级计算机
Vera Rubin平台的核心设计哲学是解耦推理(disaggregated inference),即将AI推理的过程拆分为不同阶段,由专门优化的硬件分别处理。这是一次从"GPU包打天下"到"异构专用计算"的架构范式转换。
七款芯片分别是:
▪Rubin GPU:负责计算密集型的prefill和attention阶段,3.6 exaflops算力水
▪Vera CPU:88个定制Olympus核心,LPDDR5X内存,专为智能体编排和强化学习设计,"每瓦性能是当前所有CPU的两倍"
▪NVLink 6 Switch:第六代NVLink互联
▪ConnectX-9 SuperNIC:由Vera CPU驱动的超级网卡
▪BlueField-4 DPU:提供"上下文记忆",为智能体在长链推理过程中生成的海量key-value缓存提供高速存储
▪Spectrum-6 以太网交换机:采用共封装光学(co-packaged optics, CPO),光功率效率提升5倍
▪GB3 LPU(原Groq技术):确定性数据流处理器,单芯片288GB SRAM(对比Rubin GPU的500MB),专门服务于Token生成阶段
五种机架级系统则对应不同的功能模块:NVL72 GPU机架(72个Rubin GPU + 36个Vera CPU)、Vera CPU机架(256个液冷CPU,支撑22,500+并发CPU环境)、STX存储机架、SPX以太网机架、以及LPX推理加速机架。
解耦推理:解决"吞吐量vs延迟"的结构性矛盾
老黄将高吞吐量和低延迟定义为推理场景中"互为死敌"(mortal enemies)的两个需求。Vera Rubin的解决方案是通过Dynamo软件将推理流程拆解:
▪Prefill + Attention:由Rubin GPU处理,擅长高吞吐量的并行计算
▪Token生成(Decode):由GB3 LPU处理,其确定性数据流架构和海量片上SRAM提供极低延迟的逐Token生成
两者通过以太网连接,NVIDIA为此开发了专用的低延迟模式,将互联延迟降低了约一半。最终效果在最高价值的推理层级上实现了35倍的吞吐量提升。
这种架构使用者的意义在于:它打破了"买更多GPU"的线性扩展逻辑,转向了更精细的异构计算资源配置。黄仁勋建议的配比是75% Vera Rubin + 25% GB3 LPU,适用于需要高速编码和工程Token的工作负载。
GB3/Groq的战略定位
NVIDIA对Groq技术的整合是此次发布的一个关键看点。NVIDIA在2025年底以约200亿美元获取了Groq的技术授权和核心团队(包括创始人Jonathan Ross和总裁Sunny Madra)。GB3 LPU是一种"静态编译、编译器调度"的确定性处理器,与GPU的动态执行模型形成互补。
GB3 LP30芯片由三星独家代工,已进入量产,预计2026年Q3出货。这一点对供应链格局有深远影响:在Vera Rubin架构中,三星不仅供应HBM和DRAM,还独占了LPU的代工业务,其在NVIDIA供应链中的价值权重显著上升。
Token经济学:AI工厂的商业模型
老黄用一个极其精妙的框架阐述了AI工厂的经济学。他将Token分为五个不同价值的层级:
![]()
他举了一个例子:一个研究人员每天使用5,000万个Token,按$150/百万计算,成本不过几千美元,"这甚至不算什么"。关键的商业洞察是:Blackwell产生的收入是Hopper的5倍,而Vera Rubin产生的收入又是Blackwell的5倍。在一个1GW的AI工厂中,两年内Token产量从200万增长到7亿,实现350倍的增长。
SemiAnalysis的独立基准测试显示,从Hopper H200到Grace Blackwell NVLink 72,每瓦Token性能提升了35倍(SemiAnalysis创始人Dylan Patel表示"黄仁勋太保守了,实际上是50倍")。这远超摩尔定律预测的1.5倍。
黄仁勋还特别强调了软件优化的价值:仅通过软件更新,Fireworks和Linx等推理服务商的Token速度就从约700 tokens/秒提升到了近5,000 tokens/秒。同样的硬件,7倍的性能提升。这意味着NVIDIA GPU的"有效使用寿命"在持续延长,老一代硬件(如Ampere)的云端定价甚至在上涨。
03
OpenClaw与NemoClaw:
Agentic AI的"Linux时刻"
如果说新一代的Vera Rubin是硬件层的革命,OpenClaw则可以说是软件层的范式转换。
OpenClaw:史上增长最快的开源项目
黄仁勋在演讲中多次提及OpenClaw,将其称为"人类历史上最受欢迎的开源项目……几周之内就超过了Linux 30年的成就"。OpenClaw由Peter Steinberger创建,本质上是一个智能体计算机的操作系统,负责管理资源、访问工具和文件系统、调用LLM、执行调度和定时任务、将提示分解为步骤、生成子智能体、处理多模态输入输出。
黄仁勋的类比极具战略暗示:"正如Windows使个人电脑成为可能,OpenClaw使个人智能体成为可能。"他将OpenClaw与Linux、HTTP/HTML、Kubernetes相提并论:"这和HTML一样重要。这和Linux一样重要。"
他向在场所有企业发出了一个直接的战略挑战:"每一家公司、每一家软件公司、每一家技术公司,问题就是:你的OpenClaw战略是什么?"
NemoClaw:企业级安全层
OpenClaw的快速普及也带来了一个核心问题:企业安全。黄仁勋明确指出:"智能体系统在企业网络中可以访问敏感信息、执行代码、进行外部通信。"这是一个全新的安全范式,不同于传统的网络安全或应用安全,智能体的安全需要对AI的自主行为进行策略约束。
NVIDIA的应对方案是NemoClaw,即OpenClaw的企业级参考实现,核心组件包括:
▪Open Shell:开源的安全运行时,为自主智能体执行安全和隐私护栏
▪策略护栏引擎:对接企业AGS(Agentic as a Service)平台的策略引擎
▪隐私路由器:控制智能体对敏感数据的访问路径
▪Agentic AI工具包:标准化的智能体开发框架
这个方案的企业采用名单令人印象深刻:Adobe、Atlassian、Box、Cadence、思科(Cisco)、CrowdStrike、达索系统(Dassault Systèmes)、IQVIA、红帽、Salesforce、SAP、ServiceNow、西门子、Synopsys等头部企业SaaS公司均已集成。
从SaaS到AGS的转型预言
老黄做出了一个对企业IT行业影响深远的预判:"每一家SaaS公司都将变成AGS公司"(Agentic as a Service)。企业IT将从"为人类提供工具"转型为"管理专业化智能体"。
他提到了一个极具前瞻性的细节:"我们公司的每一个工程师都需要一个年度Token预算……这现在是硅谷的招聘工具之一:你的工作附带多少Token额度。"
这意味着Token正在成为一种新的企业资源,如同云计算时代的计算单元,如同SaaS时代的License数量。对于企业SaaS投资者而言,这是一个需要重新评估估值模型的信号。
04
开源模型联盟与垂直行业布局
▎Nemotron Coalition:开源阵营的政治经济学
NVIDIA宣布成立Nemotron Coalition,联合全球AI实验室在NVIDIA DGX Cloud上共同开发开源前沿模型。首批成员包括:Black Forest Labs(图像生成)、Cursor(AI编程)、LangChain(智能体框架)、Mistral AI、Perplexity、Reflection AI、Sarvam(印度)以及由前OpenAI高管Mira Murati领导的Thinking Machines Lab。
第一个联合开发的模型将由Mistral AI与NVIDIA共同完成,作为Nemotron 4系列的基础。黄仁勋表示:"开源模型是创新的命脉,是全球参与AI革命的引擎。"
六大开源模型家族覆盖了AI的完整应用谱系:
1.Nemotron:推理模型(语言、视觉、RAG、安全、语音),Nemotron 3 Ultra目标成为"世界上最好的基础模型"
2.Cosmos:世界基础模型,用于物理AI和世界生成/理解(第二代)
3.Alpamayo:"世界上第一个思考和推理的自动驾驶AI",已被超过10万汽车开发者下载
4.GR00T:通用机器人基础模型(第二代),在MolmoSpaces和RoboArena基准上排名第一
5.BioNeMo:数字生物学、化学、分子设计
6.Earth-2:天气和气候预测(AI物理学)
这一开源策略具有双重的战略意图:一方面培育开发者生态以驱动NVIDIA硬件需求;另一方面将NVIDIA定位为中立平台提供商,而非与构建在其芯片上的AI实验室/企业进行竞争。随着NVIDIA自有模型能力的增强,这种微妙的平衡将越来越考验管理层的战略智慧。
垂直行业:从手术室到太空
GTC 2026的垂直行业的内容覆盖范围之广几乎令人目眩:
制药与生物科技:罗氏(Roche)部署超过3,500个Blackwell GPU用于生物学基础模型、药物发现和制造设施数字孪生。基因泰克(Genentech)近90%的符合条件的小分子项目已整合AI,一个肿瘤学分子的设计速度提高了25%,备选候选药物从两年多缩短到七个月。
自动驾驶:比亚迪、吉利、五十铃和日产正在NVIDIA Drive Hyperion平台上构建L4级自动驾驶车辆。与优步(Uber)的合作扩展至2028年在四大洲28个城市部署自动驾驶车辆。黄仁勋宣称:"自动驾驶的ChatGPT时刻已经到来。"新增的Robotaxi平台合作伙伴(比亚迪、现代、日产、吉利)年产能合计达1,800万辆。
医疗机器人:发布了首个医疗机器人专用物理AI平台,核心是Open-H,这是全球最大的医疗机器人数据集(超过700小时的手术视频)。CMR Surgical、强生医疗和美敦力(Medtronic)是首批的采用者。
太空计算:Vera Rubin太空模块提供比H100多25倍的轨道AI推理算力。Aetherflux、Axiom Space、Kepler Communications、Planet Labs和Starcloud正在基于此进行构建。
桌面超级计算机:DGX Station搭载GB300 Grace Blackwell Ultra Desktop Superchip,748GB的一致性内存,20 petaflops AI算力,可在桌面运行万亿参数模型。支持隔离配置,面向受监管行业。
还有一个精心编排的舞台时刻:迪士尼的物理机器人Olaf(《冰雪奇缘》角色)走上舞台,由Jetson驱动、在Omniverse中训练、使用Newton物理求解器(NVIDIA与迪士尼研究院和DeepMind共同开发),与黄仁勋进行了一段即兴对话。老黄说:"想象一下?这就是迪士尼乐园的未来。所有这些角色在你身边走来走去。"
05
共封装光学:
从网络边缘到计算核心的关键跃迁
在Vera Rubin平台的七芯五架构叙事中,有一项技术被反复提及却容易被非专业背景的人士所忽略:共封装光学(Co-Packaged Optics, CPO)。从NVIDIA的路线图来看,CPO可能是决定未来AI超算能否继续扩展的最关键的瓶颈技术。
黄仁勋表达的三次递进
CPO在演讲中出现了三次,每一次的战略权重都在升级:
第一次是作为Vera Rubin平台概述的一部分:"通过Spectrum-X共封装光学实现横向扩展(scale-out),提升能效和弹性。"此时CPO只是五种机架之一的特性。
第二次,老黄手持Spectrum-6 CPO交换机实物,做出了一个极强的技术所有权宣示:"全球第一款CPO Spectrum-X交换机,已在全量产中。光直接进入这块芯片,与硅片直接对接。电子被转化为光子,直接连接到这块芯片上。我们和台积电共同发明了这个工艺。今天全球只有我们在量产。"
第三次在路线图环节,CPO的角色发生了质变。黄仁勋直接回应了行业关于"铜缆还是光学"的争论:"铜缆会继续重要吗?是的。你们会做光学Scale-up吗?是的。光学Scale-out呢?也是。对于我们生态系统中的每一个人:我们需要大量的铜缆产能,大量的光学产能,大量的CPO产能。"
为什么CPO是AI扩展的物理极限问题
要理解CPO的重要性,需要回到一个基本物理事实:在千兆瓦级AI工厂中,功耗和带宽(而非计算力)才是真正的限制因素。
传统的可插拔光模块(pluggable transceivers)要求电信号从芯片出发,沿PCB上15-30厘米的铜质走线到达前面板,每一厘米的铜线都在耗散能量。CPO将光子引擎直接放置在交换芯片的封装基板上,将电信号路径缩短到几毫米,电子几乎在"出生"的瞬间就被转化为光子。
根据SemiEngineering 2026年3月的深度分析,CPO的核心价值在于:
▪I/O功耗降低最高达30%:消除长距离铜质走线的能量损耗
▪带宽密度突破:NVIDIA Spectrum-6 CPO交换机实现409.6 Tb/s带宽、512端口800 Gb/s,这在传统可插拔光模块下因前面板空间和功耗约束几乎不可能实现
▪释放封装资源:减少大量高速电气I/O引脚,将更多凸点(bump)分配给供电,支持背面供电等先进封装技术
▪NVIDIA声称的5倍光功率效率提升:直接转化为Token/watt的提升,这正是黄仁勋整套经济学模型的核心指标
西门子EDA高级总监Tony Mastroianni在SemiEngineering的采访中的判断极为直接:"对于超大规模AI芯片,功耗和带宽,而非计算,已经成为限制的因素。"据麦肯锡估计,到2030年全球需要5.2万亿美元的数据中心投资来满足AI需求。在这个尺度下,网络层节省的每一瓦功耗都直接转化为可用于计算的生产性算力。
路线图解读:CPO从边缘走向核心
将NVIDIA历代架构中CPO的角色排列,可以看到一条清晰的迁移路径:
![]()
关键拐点在Feynman世代:CPO首次进入机架内GPU到GPU的Scale-up互联,即整个系统中延迟最敏感、带宽需求最高的链路。这意味着:
CPO成为GPU集群扩展的门控技术。NVLink 72是铜缆的实用上限(72个GPU一个域)。NVLink 576需要光学Scale-up。NVLink 144通过Kyber机架将铜缆推到了极限。超越这些节点,只有光学互联能够维持所需的带宽和信号完整性。没有CPO,下一代AI超级计算机从物理上就无法建造。
NVIDIA正在垂直整合光学能力。"我们和台积电共同发明了这个工艺"这句话意味着NVIDIA将CPO视为核心差异化技术而非外购商品。这与2020年69亿美元收购迈络思(Mellanox,获得网络和光模块能力)的战略一脉相承。NVIDIA正在将光学互联纳入其垂直整合的技术栈,如同它对GPU、CPU、DPU所做的那样。
"铜缆和光学都要"创造了双轨供应链。黄仁勋明确表示两种技术将长期共存,这意味着互联的总可寻址市场在扩大而非转移。对供应链而言,这是一个增量信号而非替代信号。
技术挑战与成熟度
CPO并非没有挑战。SemiEngineering的分析指出几个关键难题:
▪热敏感性:光子器件对温度极其敏感,需要在狭窄范围内保持稳定。与35kW计算芯片共存于同一封装中,需要复杂的多物理场协同设计,包括温度控制环路、精细的布局规划和应力感知封装
▪激光器可靠性:激光器是光学栈中可靠性最低的组件,需要冗余设计和集成监控
▪制造良率:将光子器件与CMOS在规模化生产中集成仍在成熟过程中
▪成本:目前CPO每端口成本高于可插拔光模块
但SemiAnalysis在2026年1月发布的"CPO Book"中做出了明确判断:"CPO将成为本十年后半段及以后Scale-up网络带宽提升的主要驱动力。"
投资视角:谁在CPO赛道上
CPO转型的主要受益者包括:
▪博通(AVGO):刚发布400G/lane光学DSP用于1.6T收发器;在CPO交换机领域与NVIDIA直接竞争
▪ 迈威尔(MRVL):主要光学DSP供应商,与博通在AI光学领域激烈竞争
▪ Lumentum(LITE):激光器和光子器件供应商,CPO供应链的关键一环
▪ 台积电(TSM):与NVIDIA共同开发CPO工艺技术,是底层制造使能者
▪ Ayar Labs(未上市):光学I/O chiplet先驱,潜在收购标的
▪Lightmatter(未上市):光子超算公司,与Cadence和Synopsys合作开发的CPO方案
风险端则在于传统可插拔光模块供应商:如果CPO采用速度超预期,可插拔市场可能面临结构性收缩。
从更宏观的视角看,CPO在NVIDIA路线图中的地位揭示了一个深层趋势:AI基础设施的瓶颈正在从计算转移到互联。当GPU和LPU的算力以每代数倍的速度增长时,连接它们的网络必须以同等甚至更快的速度扩展。CPO不是一个"锦上添花"的优化,而是AI超算物理可行性的前提条件。老黄在GTC上亲手举起CPO交换机的那一刻,或许和举起Rubin GPU一样重要。
06
投资者视角:供应链格局与风险评估
▎$1万亿需求的构成
黄仁勋将需求来源分解为:60%来自前五大超大规模云服务商(AWS、Azure、谷歌云、甲骨文、CoreWeave),其中包括这些平台上的客户生态消费;40%来自区域云、主权云、企业、工业、机器人和边缘计算。
超大规模云的工作负载正在发生结构性的转移:推荐系统、搜索等传统工作负载正全面转向深度学习和LLM。推理服务商(如Fireworks)过去一年增长了100倍。GPU现货价格"正在飙升"。所有上游供应链合作伙伴都实现了"创纪录的年份"。
▎CoreWeave:被老黄"封圣"的第五朵云
在这份需求的构成中,有一个名字值得特别关注:CoreWeave。
黄仁勋在演讲中以完全相同的叙事结构依次介绍了NVIDIA的云合作伙伴:谷歌云 → AWS → 微软 Azure → 甲骨文 → CoreWeave → Palantir+戴尔。他对CoreWeave的评价是:"他们是全球第一个AI原生云,一家以唯一的目标而生的公司,在加速计算时代到来时提供GPU托管服务、承载AI云。他们有一些非常优秀的客户,增长令人难以置信。"
这个安排的战略含义远超字面意思:
地位跃升。CoreWeave是一家近期刚IPO的创业公司(CRWV),而与它并列的四家(谷歌云、AWS、Azure、甲骨文)每一家背后都是万亿美元市值的企业。黄仁勋将CoreWeave放入完全相同的幻灯片模板、相同的"我们如何将客户导入他们的云"叙事框架中,实质上是在向市场宣告:CoreWeave是AI工作负载的第五大云,而非一个细分玩家。
"AI原生"作为结构性优势。黄仁勋用"Only one singular purpose"(唯一目标)这个措辞精准地点出了CoreWeave相对传统云的核心差异。AWS、Azure、谷歌云都承载着数十年通用云的遗留架构包袱。CoreWeave从第一天起就围绕GPU供给和AI推理而设计,没有历史负担。在推理时代,这种架构纯粹性是一种结构性优势。
需求验证与信用背书。对于一家刚上市、需要向怀疑者证明估值合理性的公司而言,当掌控着$1万亿需求的芯片公司CEO在主题演讲中说你"增长令人难以置信",这本身就是一种极高规格的商业信用的背书。
NVIDIA的战略意图。NVIDIA 60%的收入来自前五大超大规模客户。将CoreWeave公开提升至同一梯队,是在向市场释放信号:AI云市场不是一个封闭的寡头垄断,为AI而生的新玩家完全可以参与竞争。这符合NVIDIA的根本利益:防止买方过度集中带来的议价权失衡。客户基础越分散,NVIDIA的定价权就越稳固。
放到产业层面看,CoreWeave的崛起暗示了一个正在发生的结构性变化:正如移动互联网时代催生了与传统IDC完全不同的公有云(AWS、Azure),推理时代可能催生与通用云完全不同的AI原生基础设施层。CoreWeave今天的位置,类似于2010年代初期的AWS:市场份额尚小,但站在了正确的架构范式一边。
▎供应链赢家
三星可能是此次GTC最大的间接受益者。在Vera Rubin架构中,三星独家代工GB3 LP30推理芯片,同时供应HBM、DRAM和SSD。根据1:4的GPU:LPU配比推算,假设全球部署10万个LPX机架,三星仅代工收入就可能接近百亿美元量级。叠加配套存储业务,三星在Vera Rubin生态中的整体业务价值可能是台积电代工收入的3-4倍。
英特尔的存在感也值得关注:Xeon 6被选为DGX Rubin NVL8系统的处理器,这在NVIDIA和英特尔长期竞争的背景下是一个有趣的合作信号。
台积电仍然是Rubin GPU的核心代工方,但LPU业务的缺失意味着其在推理时代的价值份额可能被稀释。
路线图确定性
NVIDIA公布了清晰的未来路线图:
▪Rubin Ultra(正在tape-out):新GPU + Kyber机架(支持NVLink 144,144个GPU组成一个NVLink域)+ LP35(首款采用NVIDIA NV FP4计算架构的LPU)
▪ NVLink 576:通过光学Scale-up实现,同时支持铜缆和光学两种方案
▪ Feynman(下一代):全新GPU + LP40 LPU + Rosa CPU(以Rosalind Franklin命名)+ BlueField-5 + ConnectX-10
老黄承诺"每年一个全新架构",这种节奏在半导体行业几乎没有先例。
▎风险与不确定性
尽管整场演讲的叙事极具说服力,投资者仍需关注以下风险:
性能验证风险:Vera Rubin的性能声明(10倍推理吞吐/功耗比、1/10的Token成本)尚未经过独立基准测试验证。GTC上的数据多为内部Benchmark。
Agentic AI实现风险:整个平台的商业逻辑建立在"自主长时间运行的AI智能体将成为主导计算负载"这一假设之上。这一未来尚未完全实现。企业大规模部署智能体面临安全、合规、可靠性等重重挑战。
生态系统依赖风险:NVIDIA同时提供芯片、系统、软件、模型、参考架构和智能体框架,这种全栈扩张可能引发客户对单一供应商依赖的担忧。Anthropic CEO Dario Amodei和OpenAI CEO Sam Altman在 GTC上的背书是强有力的信号,但竞争格局并非静态:AMD持续缩小数据中心GPU性能差距,谷歌TPU驱动着世界上最大的一些AI训练任务, 如 Gemini。
股价反应的信号:尽管GTC公告密度极高,NVIDIA股价在演讲期间短暂上涨后仅收出小幅涨幅(详见下节分析)。市场可能已经将大部分利好记入价格(price in),或者正在等待独立的验证数据。
07
市场反应:推理时代的价值链重构
GTC 2026主题演讲后的市场反应,或许比演讲本身更能揭示AI产业价值分配的结构性变化。
大盘走势
3月16日美股收盘,三大指数全面上涨:S&P 500上涨1.02%至6,700点,纳斯达克上涨1.22%至22,374点,道琼斯上涨523点(+1.14%),NVIDIA是道指涨幅最大的成分股。整个半导体板块出现了一轮显著的"推理时代轮动"。
个股表现:供应链跑赢NVIDIA
以下是GTC演讲后主要相关公司的股价变动:
![]()
分析师反应
▪ Wedbush Dan Ives:GTC后发出"直言不讳的信息",据TipRanks报道态度进一步转向看多,预计将上调目标价。
▪ CNBC Jim Cramer:称AI繁荣是"真正的市场驱动力"。
▪ SemiAnalysis Dylan Patel:称黄仁勋"太保守了",实际性能提升是50倍而非35倍。
▪ MarketMinute:将此次半导体板块上涨定义为"推理时代点燃技术性的突破"。
深层解读:价值链从集中走向分散
这次市场反应中最值得关注的结构性现象是:NVIDIA自身的涨幅显著落后于其供应链合作伙伴。英特尔(+6.3%)、美光(+6.2%)、希捷(+5.8%)和三星(+5.0%)均大幅跑赢NVDA(+1.65%)。
这一现象的深层含义是:
训练时代的价值集中 vs. 推理时代的价值分散。在以训练为主导的2023-2025年,GPU几乎独占了AI基础设施的经济价值,NVIDIA一家就能捕获大部分增量。但Vera Rubin架构明确宣告了推理时代的到来。七款芯片、五种机架意味着CPU、内存、存储、代工、光学网络都成为了一等公民。
NVDA已被充分定价,供应链尚未。市场对NVIDIA的$1万亿需求预期并非新信息,去年GTC的$5000亿已建立了增长锚点。但英特尔入选DGX Rubin、三星独占LPU代工、美光HBM4全线售罄,这些都是超出市场预期的新信息,因此供应链股票获得了更大的价格发现空间。
"解耦推理"创造新的投资机会。Vera Rubin的核心创新,即将推理过程拆分为prefill(GPU)和decode(LPU)两个阶段,在投资层面同样是一次"解耦":它打破了"买AI就买NVIDIA"的单一押注逻辑,为投资者提供了沿价值链精准配置的可能性。
值得跟踪的二阶受益者
除了上述直接受益者,以下"二阶受益者"尚未被充分定价:
▪ 闪迪/西部数据:Seeking Alpha分析师将STX存储机架称为"Game changer"级的NAND需求催化剂。闪迪2026年至今已上涨158%,但BlueField-4带来的AI存储需求尚未完全反映。
▪博通/Lumentum/Arista:Spectrum-6 SPX交换机采用的共封装光学(CPO)技术是光通信领域的重大突破。IBD将这些公司列为GTC后重点关注的标的。
▪CoreWeave(CRWV):被黄仁勋称为"全球第一个AI原生云",使用DSX Air进行AI工厂仿真。近期IPO,波动性大但成长性强。
▪企业SaaS转AGS标的:Salesforce、ServiceNow、Atlassian等正在从SaaS向AGS(Agentic as a Service)转型的公司,可能在OpenClaw生态成熟后迎来新一轮估值重构。
GTC后续活动将持续至3月19日,更多合作伙伴公告(尤其是来自微软等超大规模客户的具体采购承诺)可能进一步催化市场反应。
08
结语:Token是新的大宗商品,AI工厂是新的基础设施
黄仁勋在演讲中反复使用一个类比:Token是新的货币,AI工厂则是铸造这种货币的基础设施。
这个类比揭示了NVIDIA对自身定位的深层思考。在这个新兴的计算经济秩序中,NVIDIA不仅是芯片供应商,更是整个Token经济体系的基础设施架构师,覆盖从芯片设计到系统集成、从推理优化软件到智能体安全框架、从数字孪生设计工具到太空计算模块的完整链条。
没有其他半导体公司(甚至可以说没有其他技术公司)能够呈现一个跨越定制硅片、系统架构、网络、存储、推理软件、开源模型、智能体框架、安全运行时、仿真平台、数字孪生基础设施以及从药物发现到自动驾驶再到太空计算的垂直应用的集成技术栈。
GTC 2026上有一个反复出现的场景:老黄穿着标志性的皮夹克,像珠宝商展示钻石一样举起一块芯片,在舞台灯光下缓缓旋转。这里面有表演成分,也有布道的意味。但全球的信众越来越多,芯片越来越快,支票的面额也越来越大。
NVIDIA是在建造人类历史上最伟大的基础设施,还是仅仅在建造最赚钱的东西?在Token经济的时代,这两者或许本就是同一件事。
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.