“以后工程师的福利里,除了 Base 和股票,还必须包含年度 Token 预算。”
3 月 17 日凌晨 2 点,一年一度的NVIDIA GTC正式开幕。
这场大会几乎已经成为 AI 行业的“年度风向标”。每一年,英伟达 CEOJensen Huang都会在 keynote 上抛出新的技术路线、芯片架构以及产业叙事。
而这次的 GTC,被老黄简直“搞”出了新高度!全程近 150 分钟,给业界带来了许多新信号。
首先,现场观众比例最高的竟然不是程序员,而是金融从业者。 老黄调侃道:“我希望你们是开发者,而不是交易员。”
![]()
他指出,金融业正在经历自己的“Transformer 时刻”。从算法交易到模式发现,AI 已经不再是辅助工具,而是直接下场“造钱”。
其次,黄仁勋再次明确义了英伟达:“我们是一家垂直整合的计算公司。”业界对于英伟达的印象还停留“芯片”公司,但老黄很直白地拆穿了这个误解。他说:“加速计算不是芯片问题,而是应用程序加速问题。”
更重要的是,黄仁勋将之前提出的“AI工厂”理论进一步延展了,他进一步在这次的 keynote 中解析了AI工厂的赚钱逻辑,并重点提到了一种“Token 的分层经济学”:未来,让每一瓦特都变成金钱的 AI 服务将不再是“一口价”,而是像电力或带宽一样分层计费。
- 免费层:高吞吐量但速度略慢(基于普通节点)。
- 标准/溢价层:更大模型、更长上下文、极速响应。价格可能从每百万 Token $3 提升至 $6、甚至 $150。
- 逻辑:模型越聪明、响应越快,溢价就越高。CEO 们必须像管理工厂一样管理 Token 的生产速度与吞吐量,因为这直接决定了利润率。
因此,这次 GTC 的最重磅的发布可以看出是围绕这一核心理念来设计的。
此外,黄仁勋宣布,传统意义上的“数据中心”已经死了,取而代之的是“Token 工厂”。而如今AI发展的重点已经来到了推理性能的提升上。
“别人说推理容易,我说推理才是终极硬核。”黄仁勋强调,推理直接挂钩收入,英伟达通过NVFP4精度和NVL72架构,已经把推理性能推到了 Hopper 时代的35 到 50 倍。
![]()
不仅如此,英伟达在软件方面也做出了很大的工作。
老黄现场展示了英伟达的 100 个 CUDA-X 算法库。这些库就像是开启不同行业的钥匙——给金融业做量化交易,给医疗业做基因测序,给电信运营商做智能基站。
老黄还在现场展示了一个恐怖案例——通过英伟达最新的软件库更新,同样的硬件系统,推理速度从每秒 700 个 Token 暴增至5000 个。
软件即是算力,这种“原地 7 倍”的提升,让英伟达的“Token 成本”变得全球无敌。
值得一提的是,新一代 GB300 NVL72 系统在性能功耗比上提升约 50 倍,同时将 AI 推理 token 成本降低约 35 倍。这意味着 AI 数据中心可以在相同电力条件下生成更多 token,从而显著提升 AI 工厂的经济回报。
甚至黄仁勋还摆出了“推理王”的pose,现场一片掌声。
![]()
当然,老黄面对日趋激烈的商业竞争,依旧保留着一种“商业毒舌”的幽默感,他表示:“如果架构选错了,哪怕芯片免费送,它也贵得离谱(Even if it's free, it's not cheap enough)。”
这是理念层面,黄仁勋在GTC上给出的精彩观点。
而在新品发布层面上,可以总结有三个亮点:NVIDIA 与 Groq 架构的技术整合、Nemo Claw 的正式发布、迪士尼形象的机器人“雪宝”亲临现场。
话不多说,这就带大家仔细看一下英伟达视野中的几个关键变化。
现场直击:从“可爱的芯片”到“星际工厂”
在圣何塞 SAP 中心,黄仁勋面对演示中十年前的 DGX-1 照片感慨万千。从那时至今,英伟达提供的算力在十年间惊人地增长了4000 万倍。
老黄感慨发布“可爱”芯片已经成为了过去式,今晚他则直接搬出了巨大的Cyber Rack(赛博机架)。这是全球首个专为Agentic AI 设计的超级工厂单元。
- Vera Rubin 震撼亮相:这不只是芯片,而是单机架算力高达3.6 Exaflops的庞然大物。
![]()
- 144 芯互联:通过全新的Cyber Rack,英伟达实现了 144 颗 GPU 的同域互联。
如果说去年的 Blackwell 是在算力极限上的“大力出奇迹”,那么今晚发布的Vera Rubin则是对 AI 计算范式的彻底重构。黄仁勋在现场展示了一张令全场静默的对比图:在同样的 1 吉瓦(GW)规模 AI 工厂下,Vera Rubin 平台将 AI 算力推向了前所未有的16 ZFLOPS。
1. 告别“幻觉”,迎接“秒思”:最令人震撼的数据在于推理能力的阶跃。Vera Rubin 平台支撑下的系统,每秒可产出 7 亿个 Token。这一数字比 Hopper 时代提升了整整 350 倍。这意味着未来的智能体将不再是挤牙膏式的文本生成,而是能够像人类大脑一样,在毫秒级时间内完成多步推理、工具调用和逻辑闭环。
![]()
2. “光”进“电”退:Spectrum CPO 解决功耗墙:为了支撑这股恐怖的算力,英伟达首次在机架级系统中全面引入Spectrum CPO(光电共封装)技术。通过将光通信直接整合在封装层面,Vera Rubin 解决了数据中心最头疼的能效比问题,实现了260 TB/s的全对全(All-to-All)扩展带宽。
![]()
3. 跨界生态:Vera CPU 与 Groq 3 的协同:值得注意的是,英伟达的硬件全家桶再次进化。全新的Vera CPU彻底取代了传统的 X86 方案,实现了与 GPU 的深度耦合。而图中赫然出现的Groq 3 LPU模块,则预示着英伟达正在构建一个极其开放且强悍的“推理加速矩阵”,旨在彻底统治 Agentic AI 的前沿战场。
![]()
于此同时,老黄还宣布了Vera Rubin Space 1的星辰大海计划,芯片 Thor 已通过防辐射认证,英伟达的算力工厂正式向外太空挺进。
![]()
灵魂一击:OpenClaw 开启智能体“Windows 瞬间”
如果说 Vera Rubin 架构是今晚的“最强肌肉”,那么NVIDIA NemoClaw的登场,则为这具躯体注入了灵魂。
这是整场发布会最让开发者热血沸腾的部分。老黄宣布全面支持开源项目OpenClaw。
老黄在现场用了不短的时间来描述OpenClaw的增长神话。
OpenClaw 在短短几周内,其 Stars 数目的增速和总量确实完成了对 Linux 这种量级项目的超越。这在开源历史上是绝无仅有的。
![]()
黄仁勋在现场向OpenClaw创始人 Peter Steinberg 致敬。
正如 Windows 开启了 PC 时代,OpenClaw 正在定义“智能体计算机”的架构。它不再只是一个工具,而是管理 LLM、文件系统和任务调度的下一代操作系统。
但最让人心动的还是 NemoClaw 的发布。
在 GTC 2026 演讲台的大屏幕上,那个长着螃蟹钳子的“黄教主”形象(NemoClaw 标志)瞬间刷爆了社交媒体。
![]()
这不只是一个软件库,而是一整套“数字员工”的流水线。
通过 NemoClaw,英伟达正式将OpenClaw的开源力量收编进其专业级工具链。它的可怕之处在于“全栈加速”:
- 不仅有脑子,还有极速记忆:依托cuDFcuVS,智能体检索海量私有数据的速度提升了百倍,告别了漫长的“思考中...”。
- 不仅会写代码,还会操控电脑:全新的OpenShell环境,让智能体ale
黄仁勋在现场直言不讳:“未来,每个公司都将拥有比员工更多的智能体。”随着 NemoClaw 的发布,那个“一人即一家独角兽”的 Agent 时代,今晚正式由英伟达落锤定音!
此外,黄仁勋还宣布 NVIDIA Nemotron 3 Super 已经成为了最好的OpenClaw 模型。
![]()
那么 NemoClaw的护城河在哪里?
黄仁勋表示,为了让企业敢用“会乱抓”的 Agent,英伟达推出了NemoClaw。通过安全外壳(OpenShell),给 Agent 装上了工业级的刹车。
老黄还提出了一个新的范式转移:从 SaaS 到 GaaS。 老黄断言,未来所有软件公司都将进化为GaaS(智能体即服务)。如果没有“OpenClaw 策略”,就相当于在互联网时代没有网址。
![]()
物理 AI 的“灵魂”降临:自动驾驶的 ChatGPT 时刻与“雪宝”登台
自动驾驶方面,老黄宣布了四位新重量级伙伴——比亚迪(BYD)、现代、日产、吉利,已经加入英伟达的 Robotaxi 平台,再加上梅赛德斯、丰田等,每年有 1800 万辆新车具备“出厂即 Robotaxi”的潜力。
此外英伟达与 Uber 还达成了深度合作,将在多个城市直接部署这些具备推理能力的自动驾驶车队。
而更为让人心奋的是具身智能。从 5G 塔到迪士尼雪宝物理 AI,各行各业都有英伟达技术的落地。
![]()
- AI 基站:与 T-Mobile 合作,让基站通过 AI 自动调整波束,从单纯的“信号发射塔”变成能思考交通流量的“机器人塔”。
- 机器人的“物理大脑”:现场展示了由英伟达、迪士尼和 DeepMind 合作开发的Newton 解算器
- 雪宝 Olaf 登台:迪士尼的雪宝机器人步履蹒跚地走上台,它在虚拟世界中学会了走路,并能实时感知物理环境。老黄开玩笑说:“我以为雪宝会更高一点。”这一幕预示了未来主题乐园将充满这种能自由行走、有灵魂的智能角色。注意:雪宝背后并不是预设代码,而是仿真训练学习出来的!
![]()
过去两年,算力需求将提升100万倍
100 万倍的算力需求从何而来?
老黄给出了一组数据。过去两年,工作的计算需求增长了约 10,000 倍,而使用量增长了约 100 倍。
“这就是我所说的:过去两年算力需求增长了 100 万倍。 每一家初创公司、每一个大模型巨头都有这种紧迫感——只要能获得更多算力,生成更多 Token,他们的收入就会增加,AI 就会变得更聪明。这是一个正向的飞轮。”
明年,从 5000 亿到 1 万亿的跨越
对于明年,黄仁勋给出了一个更激进的数字——1万亿美元订单额!
老黄回忆去年的时候,英伟达看到 2026 年前的 Blackwell 和 Rubin 订单需求约为 5000 亿美元。
“但站在这里,在 GTC 2026 的现场,我看到,到 2027 年的需求至少是 1 万亿美元。事实上,我认为这个数字甚至还会更高,因为算力缺口依然巨大。
2025 年是英伟达的“推理之年”,我们不仅要确保训练领先,更要确保推理能力的绝对优势,让客户的每一分基础设施投资都能发挥最长久的生命周期,从而实现全球最低的算力成本。”
别再叫老黄“卖铲子的”
这次,黄仁勋更加自信地为英伟达正式定性了:“我们是一家垂直整合的算法公司。”
他在整场发布中,都在强调:英伟达是一家帮助“AI Natives”赚钱的公司。
“电力 → GPU → token → AI产品 → 收入。”
![]()
英伟达都在用最强的产品回应 AI 时代。
这其实对外界也是一个竞争维度改变的信号。
![]()
大家不再比谁的芯片便宜,而是比谁的“Token 工厂”产出更高。
“架构选错,芯片免费送你也用不起”
面对竞争,老黄贡献了全场最辛辣的嘲讽。他算了一笔账:建设一座1 吉瓦(GW)规模的 AI 工厂,基建成本高达 400 亿美元。
“电力供应是有限的物理定律。如果你在 400 亿的工厂里装了二流芯片,导致 Token 产出效率低下,这种‘便宜’就是对资源最大的犯罪。”
在他眼里,未来的数据中心只有一种衡量标准:Token 生产效率。选错架构,就是在万亿美金的战局中提前出局。
而从深海液冷到星际计算,从底层代码到物理实体,黄仁勋亲手为这个万亿美金时代,打造了一套无法绕过的“操作系统”。
总之, 2026年,英伟达给AI圈最重要的一个关键词:投资回报比!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.