来源:市场资讯
(来源:君实财经)
AI系列30——太精彩了,黄仁勋详细分析英伟达的护城河
2026年4月16日,专访黄仁勋。由豆包翻译。
主持人:多家软件企业估值大幅暴跌,核心原因是市场普遍认为人工智能将让软件走向商品化。外界存在一种片面认知:英伟达向台积电交付 GDS2 设计文件,台积电负责制造逻辑芯片、交换芯片,再整合 SK 海力士、美光、三星供应的高带宽内存(HBM)完成封装,最终由台湾 ODM 厂商完成整机机架组装。本质上,英伟达聚焦软件层面,硬件制造全部交由外部合作伙伴完成。倘若软件彻底商品化,英伟达是否也会随之沦为同质化商品?
黄仁勋:归根结底,商业的核心是将电子信号转化为智能令牌(tokens),并且持续提升这些令牌的价值。电子信号向价值令牌的转化,是一项极难被完全商品化的核心能力。这一转化过程蕴含极高壁垒,如同区分不同分子的价值、定义不同智能令牌的层级,其中凝聚的工艺设计、工程技术、基础科学与创新研发,至今仍未被完全解构,行业进化远未抵达终点。我不认为这套核心能力会走向同质化。当然,我们会持续优化效率、提升性能。这一逻辑,也是我对英伟达的核心定位:输入是电子,输出是令牌,英伟达承载中间全部核心转化环节。我们的原则是:聚焦核心必要环节,非核心全部依托生态伙伴完成,做到「必要之事全力以赴,冗余环节最小化布局」。非核心业务,我们通过战略合作构建完善生态。如今英伟达拥有全球最庞大的上下游供应链生态,覆盖全品类计算机厂商、应用开发者与大模型研发团队。AI 可以比作五层架构体系,英伟达的生态布局贯穿全部五层。我们精简非核心业务,但牢牢把控的核心环节,具备极高技术门槛,天然隔绝商品化风险。
不止英伟达,多数企业软件厂商、工具链厂商同样不会被同质化。当下绝大多数软件公司本质都是工具提供商,少数聚焦工作流标准化系统。Excel、PowerPoint 是工具,楷登电子、新思科技同样以工具研发为核心。我看待行业趋势与市场主流观点完全相反:智能代理数量将指数级增长,工具使用者规模同步爆发,各类工业软件、研发工具的部署量级会迎来暴涨。以新思科技的设计编译工具为例,未来搭载智能代理的自动化设计场景,会让这类工具的使用规模成倍提升。当前行业瓶颈在于工程师人力有限,未来专业工程师将由海量 AI 智能代理辅助协同,人类从未有过如此广阔的设计探索空间,而现有工业工具会成为核心载体。AI 代理的普及,会带动软件企业营收与价值大幅增长。目前趋势尚未兑现,只是因为 AI 代理的工具调用能力仍不成熟,后续将通过企业自研迭代 + 通用 AI 能力升级双向突破,两种路径会同步推进。
主持人:根据最新财报,英伟达对晶圆厂、存储、封装环节的采购承诺规模接近千亿美元,行业机构 SemiAnalysis 预测,这一采购合约总额将达到 2500 亿美元。外界普遍解读:英伟达的核心护城河,是锁定了未来数年全球稀缺的算力核心元器件。竞争对手即便推出自研加速芯片,也难以获取配套内存与逻辑芯片产能。这是否是英伟达未来数年的核心竞争壁垒?
黄仁勋:长期锁定稀缺产能,确实是我们的核心优势之一,也是竞争对手难以复刻的能力。我们在上下游做出了巨额长期投入,既有公开披露的大额采购协议,也有大量隐性战略布局。多年来,我持续与上下游供应链企业高管深度沟通,清晰拆解 AI 行业长期增长空间、产业逻辑与未来趋势,传递行业确定性预期。正是基于深度共识与战略共识,上下游企业才愿意匹配大规模产能投资。供应链企业优先为英伟达加码产能,核心原因很明确:我们拥有全球顶级的下游需求承接能力,能够持续消化海量产能,并通过全球生态完成商业化落地。英伟达的下游供应链规模与市场需求,足以支撑整条产业链的长期扩张。GTC 大会的行业影响力就是最好佐证,全球 AI 全产业链企业齐聚于此,实现上下游对接、技术互通、前沿趋势同步。我会主动整合产业资源,让上游厂商看清下游需求,下游企业了解上游技术迭代,同时对接全球 AI 初创企业与前沿技术,让供应链伙伴直观看到产业落地场景与增长潜力。我长期投入大量精力,直接或间接向供应链、生态伙伴传递行业机遇,清晰拆解产业发展节奏、市场规模与长期逻辑。外界常说,我的主题演讲充斥密集的产品发布与技术解读,看似偏向知识科普,但这正是我的核心目标:确保全产业链上下游、全球生态伙伴,能够精准理解行业变革趋势、发展周期与市场体量,建立和英伟达一致的长期判断。依托供应链战略布局,我们具备面向万亿级产业规模的落地能力,提前储备匹配长期增长的产能储备。企业经营存在现金流周期,供应链同样存在供需周期与迭代周期。低周转、低确定性的产业,不会有人愿意投入重资产搭建供应链。英伟达能够持续维持超大规模布局,核心依托庞大且稳定的下游需求,全产业链都能清晰感知到真实的增长动能,这也是我们能够持续扩大产能优势的底层逻辑。
主持人:我十分关注上游供应链的承载上限。英伟达营收常年同比翻倍,面向全球输出的算力浮点运算量年均增幅超三倍。在如此庞大的基数之上,持续翻倍增长难度极高。目前英伟达是台积电 N3 工艺最大客户,同时也是 N2 工艺核心客户。行业数据显示,今年 AI 算力需求将占据台积电 N3 工艺产能的 60%,明年这一比例将升至 86%。作为先进制程的核心消耗方,英伟达如何维持逐年翻倍的增长?上游产能瓶颈是否会迫使 AI 算力增速放缓?行业能否实现晶圆工厂数量的逐年翻倍扩张?
黄仁勋:短期来看,全球上下游供需确实处于紧平衡,瞬时市场需求持续高于整体产能供给。行业会面临各类细分环节的人力、资源约束,哪怕是基建配套的水电技工,都可能成为短期瓶颈。但这恰恰是产业繁荣的标志:需求大于供给,远优于产能过剩、需求不足的行业格局。单一环节产能短缺时,全产业链会集中资源攻坚突破。以 CoWoS 封装技术为例,过去两年行业集中加码扩产,经过多轮产能翻倍,当前供需已趋于稳定。台积电已明确将 CoWoS 与先进封装技术,提升至和逻辑芯片同步的扩产优先级。长期被视为小众特种工艺的 CoWoS 与 HBM 内存,如今已成为通用计算核心基础设施,英伟达也借此进一步扩大了供应链全局影响力。早在 AI 革命初期,我就提前预判了当前的产业格局。部分合作伙伴早早布局加码,例如美光团队,多年前便锁定 HBM、LPDDR 内存的长期投入,如今充分享受行业红利;后续入局的厂商,也已全面跟进产能扩张。我们会提前数年预判潜在产能瓶颈,通过战略合作提前布局。过去数年,我们与朗美通、高意等企业深度合作,重构硅光产业链;联合台积电共同研发 COUPE 封装技术,自研多项核心专利并开放授权,搭建开放共赢的产业生态;同时通过新技术研发、工作流优化、双面探测等测试设备落地、战略投资等方式,助力供应链伙伴快速扩产。我们持续主动塑造产业生态,确保供应链能力匹配 AI 长期规模化发展。
主持人:不同环节的产能扩张难度差异显著,CoWoS 扩产相对可控,最难突破的瓶颈是什么?
黄仁勋:最核心的瓶颈是基础技能人才,比如管道工、电工等基建配套人才。当下很多悲观论调宣扬 AI 会取代大量岗位、造成大规模失业,逻辑完全站不住脚。如果社会刻意弱化软件工程等核心技能人才培养,未来必然面临人才短缺。十年前,行业曾普遍唱衰放射科医生,宣称 AI 会彻底替代影像诊断岗位,如今全球范围内放射科医生缺口巨大。回到芯片制造核心:逻辑芯片、存储芯片的长期产能上限,本质受 EUV 极紫外光刻机制约。但 EUV 设备、先进晶圆厂的产能扩张并非无解,2 至 3 年内即可完成规模化落地,唯一核心驱动因素就是稳定的长期需求信号。产能复制具备规模化效应,从单台设备到批量量产,壁垒会快速降低,不存在长期技术封锁。
主持人:英伟达是否会直接对接 ASML 等设备厂商,锁定未来三年 EUV 设备产能,支撑万亿级营收目标?
黄仁勋:我们会通过直接沟通、产业传导双重方式推进。只要说服台积电锁定长期扩产规划,ASML 等设备厂商自然会匹配产能供给。我们聚焦产业核心卡点布局,只要头部代工厂形成长期增长共识,未来数年的 EUV 设备、先进制程产能都会稳步落地。所有阶段性产能瓶颈都具备时效性,周期基本控制在两到三年,不会形成长期制约。与此同时,英伟达持续通过架构迭代实现算力效率跃升,从 Hopper 架构到 Blackwell 架构,算力能效提升 30 至 50 倍;依托 CUDA 生态的灵活性,持续迭代全新算法与计算架构,在扩大产能之外,通过技术创新进一步释放算力价值。供应链上游瓶颈可控,我真正担忧的是下游配套约束,尤其是能源政策。高端制造、AI 算力集群、芯片代工、新能源产业、人形机器人、AI 工厂的落地,都离不开稳定充足的能源供给。美国推动制造业回流、重建芯片与计算机封装产业,所有工业化战略落地的前提都是能源保障,而能源基建的建设周期远长于芯片产能。芯片产能、先进封装产能的缺口,都是 2 至 3 年可以解决的短期问题,能源才是长期核心变量。
主持人:接下来聊聊竞争对手。谷歌 TPU 表现亮眼,全球顶级大模型中,Claude、Gemini 均基于 TPU 训练,这一格局会对英伟达长期发展造成冲击吗?
黄仁勋:英伟达与 TPU 的产品定位存在本质差异。我们打造的是通用加速计算平台,而非专用张量处理单元。加速计算的应用场景极其广泛,覆盖分子动力学、量子色动力学、数据处理、结构化与非结构化数据运算、流体力学、粒子物理等科研领域,AI 只是其中核心场景之一。英伟达重新定义了计算模式,推动行业从通用计算迈向加速计算,市场覆盖边界、场景丰富度,远超 TPU、ASIC 等专用芯片。我们是全球唯一一家全场景应用加速方案提供商,依托庞大生态,所有主流框架、算法都可无缝适配英伟达硬件。英伟达产品采用开放设计,支持第三方企业、云厂商独立部署运营,因此全面入驻谷歌、亚马逊、微软、甲骨文等全球主流云平台。无论是面向多行业客户的公有云租赁模式,还是企业专属私有化部署,我们都能灵活适配。例如我们为 xAI 定制专属算力集群,为礼来制药搭建科研超算,支撑药物研发与生物科学研究。这些多元化的落地场景,都是 TPU 等专用芯片无法覆盖的短板。CUDA 生态不仅具备顶级张量运算能力,更可全流程支撑数据处理、科学计算、AI 训练与推理全链路需求。广阔的市场空间、全场景适配能力、全球化生态布局,共同构筑了英伟达的长期优势。
主持人:AI 场景中,大模型的核心运算以重复性矩阵乘法为主,架构逻辑简单规整,无需复杂分支调度与不规则内存访问。TPU 采用 systolic 阵列架构,专为矩阵运算优化,无需为线程调度、内存交互预留芯片面积,高度适配当下 AI 算力的主流需求。从 AI 单一维度来看,专用芯片的优化逻辑是否更具优势?
黄仁勋:矩阵乘法只是 AI 的基础运算,绝非全部。全新注意力机制研发、异构架构融合、混合 SSM 创新、扩散模型与自回归模型结合,前沿 AI 技术迭代,都需要通用可编程架构作为基础。灵活的可编程能力,是算法持续创新的核心土壤,也是 AI 技术快速进化的关键。摩尔定律每年仅能带来约 25% 的性能提升,算力的跨越式增长,必须依靠算法重构与计算架构革新,这正是英伟达的核心壁垒。Blackwell 架构相对 Hopper 架构实现 50 倍能效跃升,单纯依靠制程迭代完全无法实现,核心源于混合专家模型、分布式计算、异构拆分等全新技术架构的落地。依托 CUDA 的底层可编程能力,我们能够自定义核心计算内核,适配各类前沿大模型架构创新。同时,英伟达采用全链路协同设计模式,可实现处理器、系统架构、互联总线、底层函数库、算法模型的同步优化,结合 NVLink、Spectrum-X 等自研互联技术,进一步释放集群算力。脱离 CUDA 的通用可编程能力,这类全链路创新根本无从谈起。
主持人:英伟达六成营收来自全球五大超大规模云厂商。高校科研团队高度依赖 CUDA 生态,无法替代,但头部云厂商具备自研底层内核的技术实力。包括 Anthropic、谷歌全面布局 TPU 与 Trainium,即便 OpenAI 采用 GPU,也基于 Triton 框架自研定制内核,剥离通用 cuBLAS、NCCL 组件,搭建跨硬件适配的自研软件栈。当核心大客户纷纷自研替代 CUDA 组件,CUDA 生态还是英伟达领跑前沿 AI 的核心壁垒吗?
黄仁勋:CUDA 是一套高度成熟、生态完善的全栈体系,而非单一工具。我们深度参与 Triton、vLLM、SGLang 等主流开源框架的研发迭代,Triton 底层集成大量英伟达核心技术,全面赋能第三方生态发展。当下强化学习、后训练优化等全新 AI 赛道快速爆发,各类专属框架层出不穷,而 CUDA 凭借极致的兼容性与稳定性,成为所有新技术落地的首选平台。完善的底层生态能够大幅降低研发风险,开发者可以快速定位问题根源,避免底层架构漏洞带来的系统性故障。除此之外,海量的存量装机量是 CUDA 的核心价值。英伟达全球 GPU 装机量达数亿级,覆盖从老旧 A100 到新一代 Blackwell 的全系列产品,适配边缘终端、机器人、云端集群等全场景。开发者基于 CUDA 研发的模型与工具,可实现全平台快速部署,商业化价值大幅提升。同时,英伟达全面入驻全球所有云平台,支持本地私有化部署,灵活适配各类企业与 AI 初创公司的部署需求。生态丰富度、海量装机基数、全场景部署能力,三者结合,让 CUDA 的核心价值无法被替代。
主持人:这套生态优势,对头部超算厂商的实际价值有限。这类企业拥有顶尖技术团队,能够自主研发定制内核,采购算力的核心考量是硬件规格、算力密度、内存带宽与单位成本。历史上,英伟达依托 CUDA 护城河维持 70% 以上的毛利率,一旦大客户全面自研适配,这套高毛利体系能否持续?
黄仁勋:英伟达组建了专属技术团队,深度对接全球头部 AI 实验室,一对一优化客户定制化算力栈。没有任何企业比我们更了解自身硬件架构。CPU 如同舒适的家用轿车,通用性强、门槛低;而英伟达加速芯片如同 F1 赛车,普通用户可基础使用,但想要压榨极致性能,必须依托原厂专业技术支持。我们自身同样运用 AI 技术优化底层计算内核,持续挖掘硬件潜力。依托原厂深度优化,我们通常可为客户算力栈实现 2 倍性能提升,部分定制内核优化后,模型推理与训练速度可提升 30% 至 3 倍。对于大规模算力集群而言,性能的线性提升会直接转化为营收增长与成本优化,价值不可估量。英伟达硬件 + 软件全栈方案的总体拥有成本(TCO)全球最优,没有任何竞品平台能够实现超越。行业公开基准测试中,我们推出的 InferenceMAX 性能测试工具,暂无 TPU、Trainium 等专用芯片能够对标验证,足以证明综合成本优势。五大云厂商的英伟达算力业务,大多服务外部企业客户,而非内部自用。云厂商深度绑定英伟达,核心是借助我们的全球生态,承接海量行业客户需求,实现商业价值最大化。这套正向循环已经成型:海量 AI 企业基于英伟达生态研发,倒逼云厂商持续加码英伟达硬件采购;庞大的客户基数,进一步巩固我们的生态壁垒与议价能力。对于 AI 初创企业而言,最优选择永远是装机量最大、生态最完善、综合成本最低的硬件平台,英伟达恰好全部满足。同时,我们的算力平台具备全球顶尖的能效比,在大规模数据中心部署中,能够最大化令牌产出,降低单位能耗成本,为云厂商创造更高收益。
主持人:从市场格局来看,AI 算力并非完全集中于英伟达。Anthropic 近期宣布与博通、谷歌达成数十亿美元合作,大规模采用 TPU 算力支撑核心大模型研发,谷歌更是全面自研 TPU 体系。纸面数据层面,英伟达具备成本、能效、生态优势,为何头部顶级 AI 企业纷纷布局替代硬件?
黄仁勋:Anthropic 属于个例,并非行业趋势。抛开 Anthropic,TPU、Trainium 几乎没有新增规模化需求,单一企业的定制化合作,无法代表行业整体走向。OpenAI 虽与 AMD 达成合作,但核心算力仍以英伟达为主,双方合作更多是技术探索,不会动摇基本格局。我们从不排斥竞争对手,也尊重客户的多元化选择。行业各类自研 ASIC 芯片层出不穷,但最终能够实现商业化落地、全面超越英伟达的产品至今尚未出现。从盈利角度来看,专用 ASIC 芯片厂商同样维持高毛利,与英伟达 70% 的毛利率差距极小,客户更换硬件的成本优势并不明显。核心历史原因在于:AI 行业早期,英伟达资金投入重心聚焦技术研发,并未对头部 AI 实验室进行大额战略投资;而谷歌、亚马逊凭借资本优势,通过数十亿美元战略入股,绑定 Anthropic 等核心客户的算力采购。当时我们未能预判,前沿大模型研发需要千亿级资本投入,传统 VC 机构无法承接这类重资产项目,这是我们早期的战略疏漏。如今我们已经调整战略,先后大手笔投资 OpenAI、Anthropic,深度绑定头部大模型企业,补足资本布局短板。以当下的企业体量与现金流储备,我们不会再错失核心战略机遇。
主持人:英伟达长期垄断 AI 算力赛道,积累了巨额现金流,如今开始大规模投资 AI 企业。回望过去数年,AI 行业爆发初期,英伟达手握充足现金,更早看清行业趋势,为何没有提前布局头部大模型企业,或是自建基础大模型团队?
黄仁勋:所有战略布局,都需要匹配企业当下的资金实力与发展阶段。AI 实验室的千亿级重资产投资,完全超出英伟达过往的投资逻辑与资金规划。过往我们长期聚焦内生增长,极少开展大规模外部投资。我原本认为,科创企业可以依托风险投资完成融资,但大模型研发的资金需求,早已脱离传统创投框架,这是我此前认知的短板。但我们始终保持开放心态,认可所有 AI 企业的发展价值。即便早期合作受限,我也由衷认可 Anthropic、OpenAI 的行业贡献与技术突破。
主持人:英伟达现金流充沛,手握千亿级可投资资金,为何不直接布局云业务,自建超算集群,直接切入算力租赁赛道,替代现有 AI 云厂商?
黄仁勋:这是英伟达长期坚守的经营哲学:聚焦核心使命,精简非核心业务。我们只深耕不可替代的核心领域:如果英伟达放弃研发,全球加速计算架构、CUDA 全栈生态、高性能互联技术将无人承接,整个 AI 算力底层体系都会停滞不前。过去二十年,我们长期亏损投入 CUDA 生态研发,持续深耕专用计算函数库、光刻计算、科学计算等细分领域,这些长期高投入、慢回报的领域,没有企业愿意跟进,这是我们的使命与核心价值。而公有云、算力租赁赛道,市场已有大量成熟玩家,即便英伟达不入局,也会有其他企业填补市场空白,不属于我们必须坚守的核心业务。我们的生态布局,以战略投资、产业赋能为主。通过投资 CoreWeave、Nscale、Nebius 等 AI 专属云厂商,扶持新兴算力平台成长,完善差异化生态布局,既不直接下场竞争,又能保障算力生态多元化。在投资布局中,我们坚持不押注单一赢家,全面赋能所有基础大模型企业,覆盖全赛道玩家,规避技术路线误判风险。早年显卡行业曾有 60 家竞争企业,最终仅英伟达存活,这段经历让我保持足够敬畏,不会主观判定技术路线与企业成败,而是尊重市场自然竞争。
主持人:英伟达在 GPU 产能分配中,并未单纯价高者得,而是主动倾斜资源,扶持新兴 AI 云厂商,平衡行业供给格局,这一策略的核心价值是什么?
黄仁勋:首先需要纠正认知,英伟达不存在人为拆分市场、定向倾斜配额的操作。产能分配的核心原则:以客户采购订单、需求预测、数据中心落地进度为核心,遵循「先下单、先交付」的公平原则。所有产能规划,依托长期需求预测制定,芯片研发、晶圆制造、数据中心建设都存在长周期,提前锁定订单是保障供需平衡的基础。若客户数据中心基建滞后、配套设施不完善,我们会合理调整交付节奏,优先保障具备落地条件的客户,最大化产能利用效率,仅此而已。我们坚决摒弃价高者得的竞价模式,定价体系长期稳定透明。芯片行业部分厂商会在需求暴涨时大幅涨价,但英伟达始终坚守固定定价,保持企业长期稳定性与可预期性,这也是我们与台积电维持近三十年深度合作的核心基础。我更看重长期产业伙伴关系,而非短期超额利润。与台积电的合作没有严苛法律合约,依托长期信任与战略共识,互利共赢、双向包容。面向未来,英伟达的产品迭代节奏清晰稳定,Vera Rubin、Vera Rubin Ultra、Feynman 等新一代架构会按周期落地,每年实现算力、能效的跨越式升级。全球没有任何一家 ASIC 芯片厂商,能够保持如此稳定、高频的技术迭代与性能跃升。无论客户采购规模大小,从单片消费级显卡到百亿级 AI 工厂集群,我们都能稳定交付,这套规模化交付能力与技术迭代体系,是英伟达独一无二的核心优势。
主持人:英伟达资金与技术储备充足,为何不并行研发多元架构,对标 Cerebras 晶圆级芯片、特斯拉 Dojo 超算架构,分散技术路线风险?
黄仁勋:我们会通过仿真模拟完成全路线技术验证,多元特殊架构的理论性能、综合成本、适配场景,均无法超越英伟达现有路线。我们始终聚焦最优技术路径,不盲目多元化布局。近期收购 Groq,并将其整合融入 CUDA 生态,就是基于市场新需求的合理拓展。随着 AI 令牌商业化价值提升,推理场景分化为高吞吐、低延迟两大需求,原有单一架构无法覆盖全部场景,因此我们适度拓展产品边界,完善差异化布局。除此之外,现有加速计算架构,仍是覆盖全场景、性价比最优的核心选择。
主持人:最后一个问题,如果深度学习 AI 革命从未发生,英伟达如今会是什么发展格局?
黄仁勋:即便没有 AI 浪潮,英伟达的核心战略也不会改变,始终聚焦全域加速计算。通用 CPU 的性能天花板早已显现,大量科研、工业、商业场景,都需要专用加速芯片提升运算效率。从分子动力学、能源勘探地震数据分析,到流体力学、粒子物理、影像处理,CUDA 生态早已渗透各大硬核科研领域。我们的初心,是通过加速计算突破通用算力的局限,推动基础科学、工业技术的快速突破。AI 只是加速计算的落地场景之一,而非全部。GTC 大会大量核心内容聚焦光刻计算、量子化学、大数据处理等非 AI 领域,这些业务长期稳定发展,支撑英伟达稳步成长。AI 的出现,只是放大了我们二十年的技术积累,即便没有 AI,英伟达依然会成为全球顶级的科技企业,持续推动各行业算力升级
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.