![]()
2026 年 4 月 15 日,Nvidia CEO Jensen Huang 在一场最新访谈中,系统回应了外界最关心的几个问题:
1)TPU 是否会动摇 Nvidia 在 AI 算力市场的主导地位;
2)Nvidia 的真正护城河究竟是什么;
3)英伟达为何不直接下场做云服务;
4)以及美国是否应该继续限制中国获得 AI 芯片。
在 Jensen 看来,Nvidia 的核心优势从来不只是单颗芯片性能,而是围绕 AI 计算搭建起来的完整体系。这个体系既包括 GPU、互联、软件栈和 CUDA 生态,也包括对上游晶圆、封装、内存等关键供应链资源的提前布局和组织能力。他表示,Nvidia 所做的事情,本质上是把“电子转化为 token”,而这个过程远不只是制造一颗芯片那么简单。
对于 Google TPU、AWS Trainium 等专用加速器的竞争,Jensen 并不否认它们在特定 AI 场景中的价值,但强调 Nvidia 提供的是更广义的“加速计算”平台,而不只是某种单点优化的 AI 芯片。他认为,AI 发展并不只依赖矩阵乘法效率,未来模型架构、注意力机制、训练与推理流程都在快速变化,因此,一个可编程、可扩展、拥有庞大安装基数的软件硬件平台,仍然比单一用途的专用芯片更有韧性。
在商业模式上,Jensen 也解释了为何 Nvidia 没有直接变成一家 hyperscaler。按照他的说法,Nvidia 的原则一直是“做尽可能必要的事,但只做必要的部分”。也就是说,如果底层计算平台、软件库、互联架构这些事情不由 Nvidia 来做,行业可能根本做不起来;但云服务、算力租赁和资本运作,本来就会有人做,因此 Nvidia 更愿意扶持 CoreWeave、Nebius、Nscale 这样的合作伙伴,而不是亲自与整个生态竞争。
这场访谈中,最具争议的一部分,仍然是关于中国市场的表态。面对“是否应该向中国出售 AI 芯片”的追问,Jensen 的态度非常明确:美国当然应该拿到最先进、最多、最优先的 AI 算力,也必须保持领先;但这并不意味着美国应该主动将中国这个全球第二大计算市场整体让出去。
他认为,如果美国用过于绝对化的政策,将本国芯片企业排除出这一市场,结果只会加速中国本土芯片产业和本土 AI 技术栈的发展,最终让越来越多的模型和开发者生态运行在非美国技术栈上。对美国来说,这种结果可能比短期竞争本身更危险。Jensen 的立场并不是“无限制出售”,而是反对一种过于粗放、过于极端的政策设计:最先进技术当然应优先留在美国,但与此同时,美国企业也不应被迫提前退出全球关键市场。
此外,Jensen 还谈到 Nvidia 为何没有同时押注多条完全不同的芯片路线。他表示,并非没评估过各种架构可能性,而是在模拟后发现,许多看起来激进的新路线并不优于当前方案。因此,Nvidia 仍会优先沿着现有技术路径继续推进。不过,他也提到,随着 token 的商业价值上升,推理市场正在发生变化,未来不只是“高吞吐”重要,“更低时延、能卖出更高价格的 token”也会形成新的市场空间。
整体来看,这场访谈释放出的核心信号很明确,Jensen Huang 试图将 Nvidia 定义为 AI 基础设施时代的“总装平台” —— 它卖的不是某一代 GPU,而是一整套从芯片、网络、软件、供应链到开发者生态的系统能力。而在中国问题上,他也再次表明,自己支持美国保持绝对领先,但反对以主动放弃市场的方式来维护这种领先。
![]()
视频全部内容翻译。
标题:Jensen Huang:TPU 竞争、为什么应该向中国卖芯片,以及 Nvidia 的供应链护城河
引语:“如果未来几年达到 1 万亿美元级别的规模,Nvidia 也有相应的供应链来支撑它。”
导语:这场对谈中,Dwarkesh 向 Jensen 提问了多个核心问题,包括:TPU 竞争、Nvidia 对先进芯片所需稀缺供应链的掌控、是否应该向中国出售 AI 芯片、Nvidia 为什么不自己下场做 hyperscaler、公司如何投资等等。
时间轴
00 : 00 : 00 —— Nvidia 最大的护城河,是不是对稀缺供应链的控制?
00 : 16 : 25 —— TPU 会打破 Nvidia 在 AI 算力上的主导地位吗?
00 : 41 : 06 —— Nvidia 为什么不自己做 hyperscaler?
00 : 57 : 36 —— 该不该把 AI 芯片卖给中国?
01 : 35 : 06 —— Nvidia 为什么不做多种不同的芯片架构?
![]()
00 : 00 : 00 —— Nvidia 最大的护城河,是不是对稀缺供应链的控制? Dwarkesh Patel:
最近,很多软件公司的估值下跌,因为市场认为 AI 会让软件商品化。一个可能有些天真的看法是:Nvidia 把 GDS2 文件交给 TSMC,TSMC 负责生产逻辑芯片和交换芯片,再把它们和 SK Hynix、Micron、Samsung 生产的 HBM 封装在一起,最后送到台湾的 ODM 厂商组装成整机柜。也就是说,Nvidia 本质上是在做“由别人制造出来的软件”。如果软件真的会被商品化,那 Nvidia 会不会也被商品化?
![]()
Jensen Huang:
归根结底,必须有东西把电子转化为 token。把电子转成 token,并且让 token 的价值随着时间持续提升,这件事很难被彻底商品化。电子到 token 的转化,是一段极其复杂的旅程。制造一个 token,就像让一个分子比另一个分子更有价值一样,是让一个 token 比另一个 token 更有价值。这里面涉及的艺术、工程、科学和发明极其庞大,而且现在还在实时发生。无论是制造过程本身,还是背后的科学基础,都远没有被完全理解,这段旅程也远未结束,所以并不认为它会被商品化。
当然,效率一定会继续提高。刚才那个问题,其实很接近 Nvidia 对自身的理解:输入是电子,输出是 token,中间是 Nvidia。Nvidia 的职责,是在“尽可能多做必要的事”和“尽可能少做非必要的事”之间找到平衡,从而实现这种转化,并把能力做到极致。所谓“尽可能少做”,就是凡是没必要亲自做的部分,就交给合作伙伴,纳入生态系统。
如果看今天的 Nvidia,大概拥有全球最大的合作伙伴生态之一,上游有供应链伙伴,下游有整机厂商、应用开发者、模型开发者。AI 像一个五层蛋糕,Nvidia 在这五层上都有生态布局。公司尽量少做事,但真正必须亲自做的部分,恰恰极难,所以不认为这些部分会被商品化。
甚至企业软件也未必会被商品化。现在大多数软件公司其实都在做“工具”,少数是在做工作流的编码系统。Excel 是工具,PowerPoint 是工具,Cadence 和 Synopsys 也都是工具。对这件事的看法其实和不少人相反:未来 agent 的数量会指数级增长,工具使用者的数量也会指数级增长,因此这些工具的调用实例数很可能会暴涨。
比如 Synopsys Design Compiler 的调用次数就很可能激增,同时会有越来越多的 agent 去使用楼层规划工具、版图工具、设计规则检查工具。今天受限的是工程师数量,明天这些工程师会被大量 agent 辅助,设计空间探索会前所未有地展开,而他们依然会使用今天这些工具。
所以,工具的使用量很可能让软件公司受益。之所以这种变化还没大规模发生,只是因为 agent 现在还不够擅长使用工具。未来要么这些公司自己造出 agent,要么 agent 逐步强到足以熟练使用这些工具,最后很可能两者并存。
Dwarkesh Patel:
根据 Nvidia 最新披露的数据,公司在晶圆代工、内存和封装上的采购承诺已经接近 1,000 亿美元。SemiAnalysis 甚至报道称,未来可能达到 2,500 亿美元。一个解读是:Nvidia 真正的护城河,其实是提前锁定了未来很多年的稀缺部件。别人就算有加速器,能不能拿到足够的内存?能不能拿到逻辑芯片?这是不是 Nvidia 未来几年的真正护城河?
Jensen Huang:
这确实是别人很难复制的一件事。Nvidia 在上游做了非常大的承诺。有些是显性的,比如这些采购承诺;有些是隐性的。举例来说,上游很多投资其实是供应链伙伴自己做的,因为会直接告诉那些 CEO:这个产业未来会有多大,为什么会变成这样,判断逻辑是什么,看到了什么。
正因为持续地去“告知、激励、对齐”这些上游企业的 CEO,他们才愿意投入。为什么他们愿意为 Nvidia 投资,而不是别人?原因就在于,他们知道 Nvidia 有能力把他们的产能买下来,也有能力通过下游需求把它卖出去。Nvidia 的下游需求和销售能力足够大,所以他们敢在上游下注。
如果看 GTC,很多人会惊叹它的规模和参会者数量。它像是一个 360 度全景式的 AI 宇宙。大家聚在一起,是因为彼此需要见到对方。Nvidia 把整个产业链拉到一起,让下游看见上游,让上游看见下游,也让所有人看见 AI 的最新进展。更重要的是,他们还能和原生 AI 创业公司面对面接触,亲眼看到新公司、新产品和新趋势。很多时候,Jensen 花大量时间去教育、告知整个供应链和生态系统,帮助他们理解机会到底有多大。
不少人会说,Jensen 的 keynote 总是一项接一项发布新品,有时像在“上课”。但这恰恰是有意为之。目标就是确保整个上游、下游和生态系统都理解:接下来会发生什么、为什么会发生、何时发生、规模有多大,并且能像 Nvidia 一样系统化地推演这一切。
如果按刚才那种方式理解“护城河”,那么 Nvidia 的优势在于:它能为未来建产能。若未来几年真能做到 1 万亿美元级规模,Nvidia 有能力配套相应供应链。没有足够广的触达能力、没有业务运转的速度,就不可能撑起这种供应链。没有谁会为一个业务周转不快的架构单独建供应链。Nvidia 之所以能维持这个规模,是因为下游需求足够强,所有人都能看到它、听到它、理解它,这才让公司能在今天做到这样的规模。
Dwarkesh Patel:
但更具体一点说,上游真的跟得上吗?这么多年里,Nvidia 的收入几乎在年复一年翻倍,向全球提供的 FLOPS 更是增长得更快。
Jensen Huang:
而且是在这么大的基数上翻倍,这本身已经很惊人了。
Dwarkesh Patel:
但问题在于逻辑芯片产能。Nvidia 已经是 TSMC N3 和 N2 的最大客户之一。按 SemiAnalysis 的说法,今年 AI 将占掉 N3 的 60 %,明年会达到 86 %。当 AI 已经占了大头,还怎么继续翻倍?AI 算力增长会不会最终被上游卡住?全球怎么可能每年把晶圆厂再翻一倍?
Jensen Huang:
从某种意义上说,全球上游和下游在任何一个时点上,都会出现即时需求大于即时供给的局面。甚至有时候,真正的瓶颈可能是水管工。
他还补充说,这恰恰说明行业状态是健康的:需求高于供给,总比供给过剩要好。若某个环节成了明显瓶颈,整个行业就会扑上去解决它。比如前几年 CoWoS 一直被认为是瓶颈,但现在大家已经不怎么谈了,因为产业界花了两年时间持续扩充这部分产能,如今情况已经改善不少。TSMC 也意识到,CoWoS 和 HBM 不再是“小众技术”,而是主流计算基础设施的一部分,因此它们的扩产节奏,必须与逻辑芯片保持同步。
Jensen 还提到,Nvidia 现在已经可以更大范围地影响供应链。AI 革命早期,很多今天说的话,五年前就已经在讲。有人信了并提前投资,比如 Micron。现在公司不只是“发现瓶颈后去补”,而是提前几年预取瓶颈、提前布局,比如在硅光子领域和 Lumentum、Coherent 等公司的投入,就是在重塑未来供应链。为了支撑规模增长,Nvidia 不只是发明新技术,也在推动新流程、新测试设备、投资相关企业,帮助整个生态把产能抬起来。
当被问到“最难扩的瓶颈是什么”时,Jensen 的回答是:水管工和电工。
他的观点是,社会老是在讨论“AI 会消灭工作”,但真正的问题可能恰恰相反:如果不断劝年轻人别去做某些职业,未来就会短缺这些职业的人。十年前就有人说“放射科医生快没用了”,结果今天真正短缺的恰恰是放射科医生。
对于“EUV 设备怎么每年翻倍”这个问题,Jensen 的回答很直接:没有什么瓶颈是 2 到 3 年以上解决不了的。
只要需求信号足够明确,这些环节并不难复制。一旦 TSMC 确信未来需要更多产能,ASML 自然也会跟上。相比之下,他真正担心的不是芯片产能,而是能源政策。因为没有能源,就没有新的制造业,也没有 AI 工厂、EV、机器人、先进封装。芯片产能扩张是 2 到 3 年问题,CoWoS 也是 2 到 3 年问题,但能源是更慢、更基础的约束。
00 : 16 : 25 —— TPU 会打破 Nvidia 在 AI 算力上的主导地位吗? Dwarkesh Patel:
如果看 TPU,世界前三大模型里,Claude 和 Gemini 至少有两个是基于 TPU 训练的。这对 Nvidia 意味着什么?
Jensen Huang:
Nvidia 做的不是单纯的 TPU,而是“加速计算”。加速计算适用于分子动力学、量子色动力学、数据处理、结构化和非结构化数据、流体力学、粒子物理学,当然也包括 AI。它的适用范围远远大于 TPU 或 ASIC。
在 Jensen 看来,今天大家都在谈 AI,但计算远比 AI 宽得多。Nvidia 推动的是从通用计算走向加速计算的范式转换。正因为平台面向的是各种类型的应用、各种框架、各种算法,它的市场边界要大得多。并且,Nvidia 的系统设计是为了让别人也能运营,而很多自研芯片体系只能自己内部用。正因如此,Nvidia 才能进入所有云,包括 Google、Amazon、Azure 和 OCI。
当 Dwarkesh 提出另一种质疑时——AI 的核心不就是一次又一次矩阵乘法吗?既然如此,像 TPU 这种大规模脉动阵列不就比 GPU 更适合 AI 吗?
Jensen Huang 的回答是:
矩阵乘法确实重要,但那不是 AI 的全部。假如要发明一种新的 attention 机制、一种新的模型结构,比如混合型 SSM,或者把 diffusion 和 autoregressive 融合到一起,就需要一个可编程性更强的架构。真正推动 AI 快速发展的,不只是硬件本身,而是算法创新。摩尔定律一年只提升大约 25 %,但如果算法变了,性能可以一年跳 10 倍、100 倍。Nvidia 的优势就在于:它不仅硬件可编程,而且是极端的协同设计公司,能同时从处理器、系统、互联、网络、库和算法各个层面去改进。没有 CUDA,很难做到这一点。
随后,Dwarkesh 又追问:既然 Nvidia 60 % 的收入都来自五大 hyperscaler,而这些客户本身有能力写自定义 kernel、替代一部分 CUDA,那 CUDA 还算不算 Nvidia 的真正护城河?
Jensen Huang:
CUDA 不只是一个编程接口,而是一个极其丰富的生态。如果要先在某个平台上开发,最聪明的选择仍然是先为 CUDA 开发,因为它支持几乎所有框架。Triton、vLLM、SGLang 以及新一代 RL 框架,都在利用 Nvidia 的后端能力。开发者最需要的,一是稳定且成熟的底层,二是庞大的安装基数。Nvidia 现在拥有数亿块 GPU 的安装基数,遍布所有云、各种型号、各种场景,连机器人里也有 CUDA。对开发者来说,这意味着软件和模型一旦写出来,就能在大量机器上运行,这种价值非常高。
Jensen 还强调,Nvidia 为这些 AI 实验室投入了大量工程资源,帮助它们优化栈和 kernel。很多时候,一轮优化就能把模型性能提升 2 倍、3 倍,甚至 50 %。在他看来,Nvidia 今天真正的飞轮是:
最丰富的安装基数
最强的可编程性
最完整的生态
最低的总拥有成本( TCO )
最高的 token / watt 效率
最广的云覆盖范围
如果目标是出租算力,Nvidia 的客户最多;如果目标是让 1 GW 级数据中心创造最多收入,Nvidia 的 token / watt 又最好。所以他认为,Nvidia 的成功并不是偶然,而是整套飞轮共同作用的结果。
对于 Anthropic 同时使用 TPU 和 Trainium 的现象,Jensen 的判断是:Anthropic 是一个特殊样本,不代表趋势。
在他看来,没有 Anthropic,TPU 和 Trainium 的增长都会逊色很多。其他公司尝试替代方案并不会让他反感,因为别人试过之后,才会意识到 Nvidia 的强项到底在哪里。至于有人说“就算自研芯片比 Nvidia 差 70 % 也没关系,毕竟 Nvidia 毛利太高”,Jensen 的反驳是:ASIC 的毛利率其实也很高,差距并没有想象中那么夸张。
00 : 41 : 06 —— Nvidia 为什么不自己做 hyperscaler?
当 Dwarkesh 问到,既然 Nvidia 已经这么有钱了,为什么不自己做 foundation model lab,或者直接自己做云,把算力租给外界时,Jensen 的回答延续了他前面那套哲学:
“做尽可能必要的事,做尽可能少的事。”
他的意思是,Nvidia 负责的部分,是那些如果不由 Nvidia 来做,可能根本不会有人做成的事情。比如:
NVLink
CUDA 全栈
CUDA - X 各类垂直库
面向不同领域的加速计算体系
计算光刻库 cuLitho
这些都是长期亏钱、长期投入、没人愿意先做的事情,但如果 Nvidia 不做,行业未必能走到今天。既然如此,公司就该专注于这部分。
但云不一样。云这个市场里本来就会有人做,如果 Nvidia 自己也下场,反而偏离了边界。所以,它更倾向于支持生态中的 neocloud,比如 CoreWeave、Nscale、Nebius,让这些公司成长起来,而不是自己变成云厂商。Nvidia 的目标不是“什么都做”,而是让整个生态繁荣起来,让全球尽可能多的行业和国家都建立在 AI 和美国技术栈之上。
Jensen 还说,Nvidia 在投资 foundation model 公司时,也尽量不“押单一赢家”。因为 Nvidia 自己创业时就曾是那个最不被看好的公司之一。早期 3D 图形市场里有 60 家公司,如果当年让人预测谁会活下来,Nvidia 大概会排在“最不可能活下来”的前列。正因为见过这种事,所以公司更倾向于支持整个生态,而不是过早地只押某一家公司。
关于 GPU 供货分配,Jensen 也否认了“谁出价高就优先给谁”的说法。
他的说法是,Nvidia 基本遵循预测、下单、排队、谁先准备好数据中心谁先拿货的原则,不会因为价格更高就把货优先给对方。
理由很简单:这是坏的商业实践。
Nvidia 更愿意成为行业可信赖的基础设施提供者,而不是在供需紧张时随意加价。
00 : 57 : 36 —— 该不该把 AI 芯片卖给中国?
这部分是整篇对谈里最激烈的一段。
Dwarkesh Patel 的问题大意是:
如果像 Anthropic Mythos 这样的模型已经能发现大量高危漏洞,甚至具备明显的网络攻击能力,那么如果中国公司、中国实验室等拿到更多 AI 芯片,就可能训练出类似模型,并大规模部署。这会不会威胁美国企业和国家安全?
Jensen Huang 的核心回答有几层:
第一,Mythos 训练所需的算力,并没有高到中国拿不到。
第二,中国本身就是全球第二大计算市场,拥有大量芯片、充足能源和大量 AI 研究人员。
第三,把中国彻底当成敌人、试图扼杀它,并不是最安全的办法。更合理的是保持研究沟通,尤其要在“AI 不该被用于什么”这个问题上建立对话。
第四,AI 安全并不是靠把某一方“掐死”来实现的,而是要依赖一个繁荣的 AI 安全生态,这又离不开开源模型、开源栈和广泛参与。若把中国排除出去,反而可能让全球形成两个平行生态:一个开放生态跑在非美国技术栈上,一个封闭生态跑在美国技术栈上。
Jensen 认为,这对美国来说是非常糟糕的结果。
当 Dwarkesh 进一步质疑:中国毕竟还停留在 7 nm,没有 EUV,芯片性能和总 FLOPS 明显落后美国。是不是应该尽量让美国先达到这些危险能力,再争取缓冲时间修补系统,而不是继续给中国更多算力?
Jensen 的回应是:
这种推理走向了极端,好像只有在中国“完全没有算力”的情况下,美国才能保持领先。但现实并不是这样。中国已经有大量算力,而且拥有巨大的能源和基础设施储备。AI 本来就是并行计算问题,如果单颗芯片不够先进,也可以通过堆更多芯片来弥补。中国有大量空置但通电的数据中心,有强大的制造能力,也有充足的主流芯片产能。7 nm 芯片并不等于不能做 AI,今天很多模型本来就是在 Hopper 这一代上训练出来的。
Jensen 甚至明确说:
中国有大量逻辑芯片
也有足够的 HBM2
算法创新本身就能大幅弥补算力不足
DeepSeek 这样的进展已经证明,中国的 AI 研究不是边缘现象
在他看来,真正值得担心的,不是中国“有没有芯片”,而是如果未来全球 AI 模型越来越多地优先运行在非美国技术栈上,那才是美国真正的坏消息。因为这意味着开发者生态、软件优化、模型适配,会逐步倒向另一套基础设施。
Dwarkesh Patel:
先退一步看,问题核心似乎是:这里既有潜在收益,也有潜在代价,真正要判断的是收益是否大于代价。这里想让 Jensen 承认的,是这个潜在代价本身确实存在。算力是训练强大模型的投入要素,而强大模型也确实具备强大的进攻性能力,比如网络攻击。美国公司先到达 Mythos 这一级能力,是一件好事,因为它们随后可以暂缓公开,让美国企业和政府先加固软件防线,再把这种能力公开出去。
如果中国拥有更多算力,或者更大规模的众包算力,它们可能会更早训练出 Mythos 级别的模型,并大规模部署,那会是非常糟糕的结果。而美国之所以暂时避免了这一点,其中一个原因恰恰是美国拥有更多算力,这背后也包括 Nvidia 这样的公司提供支持。所以,把芯片卖给中国,本身就存在这样的代价。先不谈收益,是否承认这是一种潜在成本?
Jensen Huang:
也要看到另一种潜在代价:如果让 AI 技术栈中最关键的层之一,也就是芯片层,直接放弃全球第二大市场,那么对方就能在这个市场里建立规模、建立自己的生态,最终让未来的 AI 模型朝着一套和美国技术栈截然不同的方向优化。随着 AI 向全球扩散,他们的标准、他们的技术栈,最终可能会比美国的更有优势,因为他们的模型是开放的。
当 Dwarkesh 追问,凭 Nvidia 的 CUDA 工程师和 kernel 工程师能力,很难想象中国生态会形成长期锁定时,Jensen 的回应是:
中国是全球最大的开源软件贡献者,这是事实。中国也是全球最大的开放模型贡献者,这是事实。而今天,这一切仍然建立在美国技术栈、也就是 Nvidia 技术栈之上,这同样是事实。
在他看来,AI 五层技术栈每一层都重要,美国应该在五层都赢。其中最重要的当然是应用层,因为真正扩散到社会、真正被广泛使用的,是应用层。但每一层都不能输。
他进一步表示,如果把 AI 描绘成“核弹”一样的东西,让整个社会都害怕 AI、排斥 AI,那实际上是在伤害美国自己。就像如果一直宣传“软件工程师会被 AI 全部取代”,结果大家都不去学软件工程,那最终受损的是美国自己。放射科医生也是同样道理:把一个职业和它内部的某个任务混为一谈,会导致整个职业供给出现问题。
Jensen 的总结是:
很多极端前提会把问题推向“非零即一切、非黑即白”的方向,而现实不是这样。美国当然应该第一,当然应该在 AI 的每一层都保持领先。但几年之后,当美国希望把自己的技术、标准和技术栈输出到印度、中东、非洲和东南亚时,再回看今天的政策,很可能会发现:正是这种过于极端的政策,让美国无谓地让出了全球第二大市场。
所以,不应该主动放弃这个市场。真输了,那是竞争失败;但为什么要先主动让出?当然,也没有人主张“毫无节制地把所有芯片随时卖给中国”。最先进的技术、最多的技术、最先上市的技术,当然都应该优先留在美国。但与此同时,也应该尽量在全球范围内竞争并取胜。这两件事可以同时成立,前提是政策要有足够的细腻度和成熟度,而不是走向绝对化。
Jensen 还补充说:
如果美国被迫退出中国市场,这首先就是一个政策错误,而且已经出现反作用。它不但加速了中国本土芯片产业发展,也迫使中国整个 AI 生态更集中地转向内部架构。现在还不算太晚,但这件事已经发生了。
未来中国不会永远停留在 7 nm。他们很擅长制造,还会继续向前推进。5 nm 和 7 nm 之间也不存在 10 倍差距。真正重要的不只是制程,架构重要、网络重要、能源也重要。这也是为什么 Nvidia 当年要收购 Mellanox。整个问题远没有“制程代差”那么简单。
01 : 35 : 06 —— 为什么 Nvidia 不做多套完全不同的芯片架构?
Dwarkesh Patel:
回到另一个问题。既然前沿产能越来越紧张,而 Nvidia 在 TSMC 的 N3、未来 N2 上都已经是大客户,是否有可能重新利用 N7 这样较旧工艺上的闲置产能?比如重新做一个 Hopper 或 Ampere 风格的芯片,但结合今天对数值、系统和其它优化的理解。2030 年前,有没有可能出现这种情况?
Jensen Huang:
没这个必要。因为每一代架构的提升,不只是晶体管尺寸缩小这么简单。里面包含了大量工程、封装、堆叠、数值设计和系统架构创新。
当产能吃紧时,轻易“退回”到另一个更旧工艺节点,所需的研发投入大到几乎没人承担得起。Nvidia 可以继续向前压,不认为自己能负担得起“向后重做”这件事。当然,如果有一天世界真的走到一个极端场景 —— 比如从此以后再也不会有更多前沿产能了——那会不会立刻回去用 7 nm?答案是当然会,毫不犹豫。
Dwarkesh Patel:
还有一个问题。既然 Nvidia 有资源、也有工程人才,为什么不同时推进多条完全不同的芯片路线?比如一条做 Cerebras 那种晶圆级方案,一条做类似 Tesla Dojo 的超大封装方案,一条甚至干脆不走 CUDA。既然没人知道 AI 和计算架构未来会怎么演化,为什么要把鸡蛋放在一个篮子里?
Jensen Huang:
当然可以这么做,只是没有更好的理由。不是做不到,而是这些路线并不更优。Nvidia 会在模拟器里把这些方案都跑一遍,结果是:它们可证明地更差。既然更差,就不会去做。
公司现在做的,就是自己最想做、也最认可的那些项目。未来如果 workload 真的发生巨大变化——注意,不只是算法变化,而是工作负载本身、以及背后的市场形态发生变化——那 Nvidia 也可能会考虑加入别的加速器。
他举的例子是,最近 Nvidia 新增了 Groq,并打算把它并入 CUDA 生态。之所以现在这么做,是因为 token 的价值已经显著提升了。几年前,token 几乎是免费的,或者说几乎不值钱;但现在,不同客户愿意为不同质量、不同响应速度的 token 支付不同价格。
Jensen 的意思是:
如果客户本身通过这些 token 赚很多钱,比如软件工程师使用 AI 工具后能获得更高生产率,那么只要 token 更快响应、能让他们更高效,他们就愿意支付更高价格。
而这种市场,是最近才真正浮现出来的。也就是说,同样一个模型,未来可能会因为响应时间不同而分化出不同市场层级。所以 Nvidia 现在开始扩展推理市场的帕累托前沿,专门创造一个“响应更快、但吞吐更低”的推理细分市场。过去行业普遍认为“吞吐越高越好”,但现在可能存在另一种世界:哪怕工厂整体吞吐更低,只要 token 的平均售价更高,也依然值得。
Jensen 的结论是:
从纯架构视角看,如果有更多资源,仍然会优先押注 Nvidia 当前这套架构,而不是分散去做一堆完全不同的路线。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.