|未经许可不得转载星标本号获取最新顶级认知|
![]()
整理: Web3天空之城
城主说| 在今天Q3财报会议上,英伟达(NVIDIA)公布了创纪录的财务数据,科技圈投资圈都已经各种刷屏了. 创始人兼CEO黄仁勋在会议上回答了众多投资者的直率问题, 他明确说,当前围绕人工智能的狂热没有投机泡沫,而是一场由三大根本性平台转型并发驱动的产业革命。
本次财报会议详细阐述了英伟达在2026财年第三季度的卓越表现,重点突出了数据中心业务的强劲增长,以及由Blackwell和Rubin平台驱动的AI基础设施需求的空前高涨。行业正在经历的三大平台转型:向加速计算的转变、生成式AI的普及以及智能体AI的兴起。英伟达管理层强调了NVIDIA CUDA生态系统的核心优势、全栈解决方案的独特性以及与OpenAI、Anthropic等关键伙伴的战略合作。问答环节还进一步讨论了供应与需求的平衡、长期增长的融资模式以及NVIDIA在竞争格局中的独特地位。
核心观点摘要
• “关于人工智能泡沫的讨论很多。从我们的角度来看,我们看到的情况截然不同。世界正在同时经历三大平台转变。”
• “我们对从今年初到2026年末的Blackwell和Rubin收入可见性达到5000亿美元。而且这个数字将会增长。”
• “向智能体和物理人工智能的过渡将是革命性的,它将赋予新的应用程序、公司、产品和服务以权利。这是计算的下一个前沿。”
• “CUDA的兼容性在我们庞大的已安装基础中,将英伟达系统的寿命延长到远远超出其最初估计的有用寿命。这是相对于加速器而言一个显著的总体拥有成本优势。”
• “我们是世界上唯一可以运行每种人工智能模型、每种前沿人工智能架构的平台。无论是开源模型、科学模型还是商业模型。”
• “我们对OpenAI和Anthropic的战略投资,是为了在共同开发方面建立深厚的合作伙伴关系,以扩展我们的CUDA生态系统并支持他们的增长。”
• “物理人工智能已经是一个数十亿美元的业务,应对着数万亿美元的机遇,并且是NVIDIA下一个增长点。”
在黄仁勋看来,理解当前AI市场的爆发式增长,必须跳出单一维度的技术视角。他强调,行业正同时经历三大根本性的平台转型,而英伟达恰好位于每一场变革的中心。
“这是自摩尔定律出现以来的第一次。英伟达正以独特的方式应对这三大转型,” 他解释道。
第一重转型,是随着摩尔定律放缓,计算范式从CPU通用计算向GPU加速计算的根本性迁移。黄仁勋指出,世界在数据处理、科学模拟等非AI软件上每年投入数千亿美元,这些曾经完全依赖CPU的应用正迅速转向CUDA GPU平台。“加速计算已经达到了临界点,” 他断言,这不仅是为了AI,更是为了在后摩尔定律时代维持计算成本的持续下降。
第二重转型,是生成式AI对现有商业模式的颠覆性重塑。它正在取代经典的机器学习,成为超大规模企业基础设施的基石,应用范围涵盖搜索、推荐系统到广告定向等所有核心业务。“向生成式人工智能的过渡代表着超大规模企业可观的收入增长,” 黄仁勋以Meta的广告推荐模型为例,证明了这种转型的直接商业价值。
而第三重,也是最具革命性的一重转型,是智能体AI(Agentic AI)与物理AI的兴起。“具有推理、规划和使用工具能力的智能体人工智能系统……这些系统标志着计算的下一个前沿,” 黄仁勋列举了从编码助手到自动驾驶等一系列应用。他认为,当今世界上增长最快的公司,如OpenAI、Anthropic、xAI等,都在率先开发智能体AI,这将催生全新的应用、公司和产业。
“因此,对于人工智能的任何形式和模式,跨所有行业,跨人工智能的每个阶段……都采用一种架构。英伟达之所以被选中,是因为我们独特的架构能够实现所有这三种转型。”
解码英伟达的护城河:一个无法被单点突破的通用平台
面对市场上关于专用AI芯片(ASIC)的竞争讨论,黄仁勋显得极为自信。他强调,竞争对手面对的不是一个单一的GPU产品,而是一个经过数十年构建、覆盖硬件、软件和生态系统的庞大平台。他将其竞争优势总结为五个关键点。
首先,英伟达加速了上述三大转型的每一个阶段。客户投资一种架构,即可应对工作负载在不同转型阶段的动态变化。其次,英伟达在AI的每一个环节——从预训练、后训练到推理——都表现卓越。黄仁勋特别指出:“人们认为推理是一蹴而就的,因此很容易。但事实证明这是最难的,因为思考,事实证明,是很困难的。” 英伟达在推理领域的性能优势是压倒性的。
第三,英伟达是世界上唯一可以运行每一种AI模型的平台。“我们运行OpenAI,我们运行Anthropic,我们运行xAI,我们运行Gemini……我们运行所有这些,” 他强调,这种通用性对于开发者和企业至关重要。第四,英伟达的架构无处不在,从云端到企业本地,再到边缘设备和机器人,实现了单一架构的普遍覆盖。
最后,也是最关键的一点,是无与伦比的客户承接能力(uptake)。“如果你是一家像Humane或CoreWeaver一样的新公司……NVIDIA是你的最佳平台的原因是我们的承接能力非常多样化。我们的生态系统非常庞大。” 这意味着,部署英伟达基础设施的企业可以获得来自庞大生态系统的多样化需求和客户,这是任何专用芯片都无法提供的商业价值。
战略投资的逻辑:用资本加固CUDA生态
英伟达对OpenAI、Anthropic等头部AI公司的战略投资,远非简单的财务行为。黄仁勋首次详细阐述了其背后的战略逻辑:一切为了扩大CUDA生态系统的影响范围。
“我们投资OpenAI是为了在共同开发方面建立深厚的合作伙伴关系,以扩展我们的生态系统并支持他们的增长,” 他回顾了自2016年向OpenAI交付第一台AI超级计算机以来的深厚关系。而对于Anthropic,这次合作则更具标志性意义:“这是Anthropic首次在NVIDIA的架构上运行,而Anthropic是全球用户总数第二大的人工智能公司。”
通过这些深度技术合作与投资,英伟达确保了世界上最重要、最前沿的AI模型都能在其平台上以最佳性能运行。这形成了一个强大的正向循环:顶级模型选择英伟达,吸引更多开发者和企业客户涌入CUDA生态;而庞大的生态又为英伟达提供了无与伦比的市场需求和数据反馈,进一步巩固其技术领先地位。“我们现在有什么呢?英伟达的架构……它是世界上唯一运行所有人工智能模型的平台。”
未来展望:从AI工厂到物理AI的万亿机遇
展望未来,黄仁勋认为,当前以超大规模企业为主的AI基础设施建设仅仅是开始。他预见,全球化和产业化的AI部署将成为常态。“每个国家都将资助自己的基础设施建设。世界上大多数行业还没有真正参与到自主人工智能中,但他们即将参与。” 从药物发现、自动驾驶到由数字孪生驱动的智能制造,每一个行业都将建立自己的“AI工厂”。
同时,他将物理AI视为英伟达的下一个巨大增长引擎。“物理人工智能已经是一个数十亿美元的业务,应对着数万亿美元的机遇,” 他指出,利用英伟达的Omniverse进行模拟,Jetson平台进行部署,全球领先的制造商和机器人公司正在构建下一代智能机器人和自动化工厂。
在财报会议的最后,黄仁勋重申了对未来的信心。面对电力、融资等潜在瓶颈,他认为这些都是在以前所未有的速度和规模增长时必然会遇到的挑战,但通过精心的规划和强大的生态系统合作,这些问题都是可以解决的。对于英伟达而言,挑战不在于是否存在需求,而在于如何更高效地构建一个能够支撑全球数万亿美元AI经济的基础设施。从这次对话来看,黄仁勋和他的团队已经为这个未来做好了准备。
天空之城全文整理版 会议开场与财务业绩回顾
CFO科莱特: 我们又迎来了一个出色的季度,收入达570亿美元,同比增长62%,连续收入增长创下纪录,达到100亿美元,增幅为22%。我们的客户持续倾向于三个平台转型,从而推动了加速计算、强大的AI模型和遗传应用领域的指数级增长。然而,我们仍处于这些转型的早期阶段,这些转型将影响我们各个行业的工作。
目前,我们对从今年初到2020年末的Blackwell和Rubin收入可见性达到5000亿美元。通过执行我们的年度产品节奏,并通过全栈设计扩展我们的性能领先地位,我们相信英伟达将成为三到四万亿美元年度AI基础设施构建的首选,我们估计到本十年末将达到这个规模。
对AI基础设施的需求持续超出我们的预期。云服务已售罄,我们的GPU安装基数(包括新一代和上一代)也已售罄。包括Blackwell、Hopper和Ampere在内的几代产品得到了充分利用。第三季度数据中心收入达到510亿美元,同比增长66%,以我们的规模而言,这是一项了不起的成就。计算业务同比增长56%,主要由GB300的增长带动,而网络业务增长了一倍以上,这得益于NVLink的规模扩大以及Spectrum X以太网和Quantum X Infiniband的稳健两位数增长。世界级的超大规模企业,一个万亿美元的产业,正在将搜索、推荐和内容理解从传统机器学习转变为生成式人工智能。英伟达Kuda在这两方面都表现出色,是这种转型的理想平台,推动了数千亿美元的基础设施投资。
在Meta,人工智能推荐系统正在提供更高质量和更相关的内容,从而增加了在Facebook和Threads等应用程序上花费的时间。分析师对顶级云服务提供商和超大规模企业在2026年的预期,其总资本支出持续增长,目前约为6000亿美元,比年初增加了超过2000亿美元。我们认为,当前超大规模工作负载向加速计算和生成式人工智能的转型,约占我们长期机遇的一半。
另一个增长支柱是由基础模型构建者推动的计算跨度持续增加,例如Anthropic、Mistral、Open AI、Reflection、Safe Superintelligence、Thinking Machines Lab和XAI,所有这些都在扩大规模。积极进行计算以扩展智能。预训练、后训练和推理这三个扩展定律仍然有效。事实上,我们看到一个积极的虚拟主义循环正在出现,即三个扩展定律和计算资源的获取正在产生更好的智能,进而增加采用率和利润。开放之眼(Opening Eye)最近分享说,他们的每周用户群已增长到8亿。企业客户已增加到100万,且他们的毛利率保持健康。
Anthropic最近报告称,截至上个月,其年化运行率收入已达到70亿美元,高于年初的10亿美元。我们还看到跨各个行业和任务的代理式人工智能(agentic AI)激增。像Cursor、Anthropic、OpenEvidence、Epic和aBridge这样的公司,正在经历用户增长的激增,因为它们为现有劳动力提供了超强动力,为程序员和医疗保健专业人员提供了无可置疑的投资回报率。
像ServiceNow、Crowdstrike和SAP这样世界上最重要的企业软件平台,正在集成英伟达(NVIDIA)的加速计算和人工智能堆栈。我们的新合作伙伴Palantir,正在首次使用NVIDIA CUDA-X库和人工智能模型,为其广受欢迎的本体平台提供超强动力。
以前,像大多数企业软件平台一样,本体仅在CPU上运行。劳氏(Lowe's)正在利用该平台来构建供应链的敏捷性,从而降低成本并提高客户满意度。企业正在广泛利用人工智能来提高生产力、效率并降低成本。加拿大皇家银行正在利用代理式人工智能来显著提高分析师的生产力,将报告生成时间从数小时缩短到数分钟。人工智能和数字孪生正在帮助联合利华将内容创作速度提高2倍,并将成本降低50%。Salesforce的工程团队在采用Cursor后,新代码开发的生产力至少提高了30%。
上个季度,我们宣布了人工智能工厂和基础设施项目,总计涉及500万个GPU。 这种需求遍及每个市场,包括云服务提供商、主权国家、现代建设者、企业和超级计算中心,并包括多个具有里程碑意义的建设。XAI的Colossus 2是世界上第一个千兆瓦级数据中心,礼来制药的人工智能药物发现工厂是制药行业最强大的数据中心。就在今天,AWS和Humane扩大了他们的合作关系,包括部署多达15万个AI加速器,包括我们的GB 300。
XAI和Humane还宣布了一项合作,双方将共同开发一个世界级GPU数据中心网络,该网络以旗舰级的500兆瓦设施为基础。Blackwell在第三季度获得了进一步的增长势头,GB-300超过了GB-200,贡献了大约三分之二的Blackwell总收入。
科莱特: 向GB-300的过渡非常顺利,已向大多数主要云服务提供商、超大规模企业和通用云计算提供生产发货,并已推动他们的增长。Hopper平台自推出以来已过13个季度,第三季度录得约20亿美元的收入。H-20的销售额约为5000万美元。由于地缘政治问题以及中国市场日益激烈的竞争,本季度未实现大量采购订单。虽然我们对目前的状态感到失望,这阻碍了我们向中国运送更具竞争力的数据中心计算产品,但我们致力于继续与美国合作。和中国政府进行沟通,并将继续倡导美国在全球竞争的能力。为了在人工智能计算领域建立可持续的领导地位,美国必须赢得每一位开发者的支持,并成为每个商业企业的首选平台,包括中国的企业。Ruben平台预计将在2026年下半年开始量产。
由7个芯片驱动的Vera Rubin平台将再次提供相对于BlackBow的X因素性能提升。我们已经收到了来自供应链合作伙伴的芯片,并很高兴地报告说,英伟达全球的团队正在出色地执行启动工作。Rubin 是我们第三代 REC 规模系统,大幅重新定义了制造的可制造性,同时保持与 Grace Blackwell 的兼容性。我们的供应链数据中心生态系统和云合作伙伴现在已经掌握了英伟达机架架构的构建到安装过程。
科莱特: 我们的生态系统将为 Rubin 的快速增长做好准备。我们的年度 X 因子性能提升在提高每美元性能的同时,降低了客户的计算成本。英伟达 CUDA 的长使用寿命是相对于加速器而言,一个显著的总体拥有成本优势。Kuda 的兼容性在我们庞大的已安装基础中,将英伟达系统的寿命延长到远远超出其最初估计的有用寿命。二十多年来,我们一直在优化 Kuta 生态系统,改进现有工作负载,加速新工作负载,并通过每次软件发布提高吞吐量。大多数没有 Kuda 和英伟达经过时间考验的通用架构的加速器,在模型技术发展几年内就变得过时了。感谢 Kuta,我们六年前出货的 A100 GPU 如今仍在充分利用,由大幅改进的软件堆栈提供支持。
在过去的 25 年里,我们不断发展。从一家游戏 GPU 公司发展成为一家人工智能数据中心基础设施公司。我们在CPU、GPU、网络和软件方面的创新能力,以及最终降低每个token成本的能力,在整个行业中是无与伦比的。我们的网络业务是专为人工智能打造的,现在是世界上最大的网络业务,创造了82亿美元的收入,同比增长162%,其中NVLink、Infiniband和Spectrum X以太网都为增长做出了贡献。我们在数据中心网络领域取得了胜利,因为现在大多数人工智能部署都包含我们的交换机,以太网GPU连接速率与Infiniband大致相当。Meta、微软、甲骨文和XAI正在使用SpectrumX互联网交换机构建千兆瓦人工智能工厂,并且每个工厂都将运行其选择的操作系统,这突出了我们平台的灵活性和开放性。我们最近推出了Spectrum XGS,这是一种跨技术的扩展,可实现千兆级人工智能工厂。英伟达是唯一一家具有人工智能扩展、横向扩展和跨平台扩展能力的公司,巩固了我们作为人工智能基础设施提供商在市场中的独特地位。
客户对NVLink Fusion的兴趣持续增长。我们在10月份宣布与Pizzitsu进行战略合作,我们将通过NVLink Fusion集成Pizzis、CPU和Nvidia GPU,连接我们的大型生态系统。
我们还宣布与英特尔合作,开发多代定制数据中心和PC产品,利用NVLink连接英伟达和英特尔的生态系统。本周在超级计算大会25上,ARM宣布将集成NVLink IP,供客户构建与英伟达连接的CPU SOC。
目前已发展到第五代,NVLink是当今市场上唯一经过验证的纵向扩展技术。在最新的MLP Perf训练结果中,Blackwell Ultra的训练速度比Hopper快5倍。英伟达横扫所有基准测试。值得注意的是,英伟达是唯一利用FP4同时满足MLPerf严格精度标准的训练平台。在半导体分析公司的Inference Max基准测试中,Blackwell在每个模型和用例中都实现了最高的性能和最低的总拥有成本。特别重要的是Blackwell的NVLink在混合专家模型上的性能,这是世界上最流行的推理模型的架构。在DETC,R1上,与H200相比,Blackwell实现了每瓦特性能提高10倍,每个token的成本降低10倍,这得益于我们的经验,是代际的巨大飞跃。流代码设计方法。
英伟达Dynamo,一个开源、低延迟、模块化的推理框架,现已被各大云服务提供商采用,利用Dynamo的支持和分解式推理,显著提升了诸如MOE模型等复杂AI模型的性能。AWS、谷歌云、微软Azure和OCI都为企业云客户提升了AI推理性能。
我们正与OpenAI建立战略合作伙伴关系,专注于帮助他们建设和部署至少10吉瓦的AI数据中心。此外,我们有机会投资该公司。我们通过他们的云合作伙伴,微软Azure、OCI和Carweef为OpenAI提供服务。在可预见的未来,我们将继续这样做。随着他们不断扩展,我们很高兴支持该公司增加自建基础设施,并且我们正在努力达成最终协议,并很高兴支持OpenAI的发展。
昨天,我们与Anthropic共同宣布了一项消息。Anthropic首次采用英伟达,并且我们正在建立深入的技术合作伙伴关系,以支持Anthropic的快速发展。我们将合作优化Anthropic模型以适应CUDA,并提供最佳的性能效率和总拥有成本(TCO)。我们还将针对Anthropic的工作负载优化未来的英伟达架构。Anthropic公司计算承诺最初包括高达1吉瓦的计算能力,采用Grace Blackwell和Vera Rubin系统。我们在Anthropic Mastrol、Opening Eye、Reflection、Thinking Machines和其他方面的战略投资代表着能够发展NVIDIA-Qaeda AI生态系统的合作伙伴关系,并使每个模型都能在任何地方的NVIDIA上以最佳方式运行。我们将继续进行战略性投资,同时保持我们对现金流管理的严格方法。
物理人工智能已经是一个数十亿美元的业务,应对着数万亿美元的机遇,并且是NVIDIA下一个增长点。领先的美国制造商和机器人创新者正在利用英伟达的三种计算机架构,在NVIDIA上进行训练,在Omniverse计算机上进行测试,并在Jetson机器人计算机上部署现实世界的人工智能。PTC和西门子推出了新服务,将其由Omniverse驱动的数字孪生工作流程引入到他们庞大的客户安装群中。包括Belden、Caterpillar、富士康、Lucid Motors、丰田、台积电和纬创在内的公司正在构建Omniverse数字孪生工厂,以加速人工智能驱动的制造和自动化。Agility Robotics、Amazon Robotics、Figure和Skilled at AI正在构建我们的平台,利用诸如Invidia Cosmos、用于开发的世界基础模型、用于模拟和验证的Omniverse以及Jetson等产品来为下一代智能机器人提供动力。
我们仍然专注于在全球供应链中建立弹性和冗余。上个月,我们与台积电合作,庆祝了第一片在美国生产的Blackwell晶圆的诞生。未来四年,我们将继续与富士康、纬创、安姆科、Spill等公司合作,扩大我们在美国的业务。未来四年。
游戏收入为43亿美元,同比增长30%,这得益于Blackwell势头持续带来的强劲需求。终端市场销售依然强劲,渠道库存已恢复到假日季前的正常水平。Steam最近打破了其并发用户记录,达到4200万游戏玩家,同时成千上万的粉丝聚集在南科里塔的G-Force G-Famer Festival,庆祝G-Force成立25周年。英伟达专业可视化已经发展成为工程师和开发人员的计算机,无论是用于图形还是人工智能。专业可视化收入为7.6亿美元,同比增长56%,再创纪录。增长由数字驱动。
DGX、Spark,世界上最小的人工智能超级计算机,基于Grace Blackwell的小型配置构建。汽车收入为5.92亿美元,同比增长32%,主要由自动驾驶解决方案驱动。
我们正在与优步合作,以基于新的NVIDIA Hyperion L4 Robotaxi参考架构,扩展世界上最大的level 4级别自动驾驶车队。
在损益表的其他部分,通用会计准则 (GAAP) 毛利率为 73.4%,非通用会计准则 (Non-GAAP) 毛利率为 73.6%,超过了我们的预期。毛利率环比增长,原因是我们的数据中心组合、缩短的周期时间和成本结构。通用会计准则运营支出环比增长 8%,非通用会计准则运营支出环比增长 11%。增长的驱动因素是基础设施计算,以及工程开发成本中更高的薪酬和福利。由于美国业务强劲,第三季度非通用会计准则有效税率略高于 17%,高于我们 16.5% 的指导值。在我们的资产负债表上,库存环比增长 32%,而供应承诺环比增长 63%。我们正在为未来的显著增长做准备,并且对我们执行机会的能力充满信心。
好的,让我来谈谈第四季度的展望。总收入预计为 650 亿美元,上下浮动 2%。在中点,我们的展望意味着环比增长 14%,这得益于 Blackwell 架构的持续势头。与上季度一致,我们没有假设来自中国的任何数据中心计算收入。预计通用会计准则和非通用会计准则毛利率分别为74.8%和75%,上下浮动50个基点。展望2027财年,我们的投入成本正在上升,但我们正努力将毛利率保持在75%左右的水平。预计通用会计准则和非通用会计准则运营费用分别约为67亿美元和50亿美元。预计通用会计准则和非通用会计准则的其他收入和支出约为5亿美元的收入,不包括来自非上市和上市公司持有的股票证券的收益和损失。股权证券。预计通用会计准-则和非通用会计准则的税率为17%,上下浮动1%,不包括任何离散项目。
现在,请允许我将电话转给黄仁勋,请他说几句话。
AI平台的三大变革与市场展望
黄仁勋: 谢谢,Collette。关于人工智能泡沫的讨论很多。
从我们的角度来看,我们看到的情况截然不同。提醒一下,英伟达与任何其他加速器都不同。我们擅长人工智能的每个阶段,从 pre-training 和 post-training 到推理。凭借我们在KutaX加速库上投入的二十年,我们在科学和工程模拟、计算机图形、结构化数据处理到经典机器学习方面也表现出色。
世界正在同时经历三大平台转变。
这是自摩尔定律出现以来的第一次。英伟达正以独特的方式应对这三大转型。
第一个转变是随着摩尔定律的放缓,从CPU通用计算转向GPU加速计算。世界在非人工智能软件方面进行了大量投资,从数据处理到科学和工程模拟,每年在云计算方面的支出达数千亿美元。许多曾经完全在CPU上运行的应用程序,现在正迅速转向Kuta GPU。加速计算已经达到了临界点。
其次,人工智能也达到了临界点,它正在改变现有应用程序,同时启用全新的应用程序。对于现有应用程序,生成式人工智能正在取代经典机器学习,应用于搜索排序、推荐系统、广告定向、点击率预测到内容审核,这些都是超大规模基础设施的基石。Meta的Gem,一个在大型GPU集群上训练的广告推荐基础模型,就是这种转变的典范。在第二季度,Meta报告称,在生成式人工智能驱动的gem的推动下,Instagram上的广告转化率增长超过5%,Facebook feed上的广告转化率增长3%。向生成式人工智能的过渡代表着超大规模企业可观的收入增长。
现在,一股新的浪潮正在兴起。具有推理、规划和使用工具能力的智能体人工智能系统。
从像Cursor和Quad Code这样的编码辅助工具,到像IDoc这样的放射学工具,像Harvey这样的法律援助,以及像特斯拉FSD和Waymo这样的人工智能司机。这些系统标志着计算的下一个前沿。
当今世界上增长最快的公司,Open AI、Anthropic、XAI、谷歌、Cursor、Lovable、Replet、Cognition AI、Open Evidence、Abridged Tesla,都在率先开发智能体人工智能。因此,存在三大平台转变。向加速计算的过渡是基础性的和必要的,在后摩尔定律时代至关重要。向生成式人工智能的过渡是变革性的和必要的,它为现有的应用程序和商业模式提供了强大助力。向智能体和物理人工智能的过渡将是革命性的,它将赋予新的应用程序、公司、产品和服务以权利。
在您考虑基础设施投资时,请考虑这三个基本动态。
每一项都将在未来几年为基础设施的增长做出贡献。英伟达之所以被选中,是因为我们独特的架构能够实现所有这三种转型。因此,对于人工智能的任何形式和模式,跨所有行业,跨人工智能的每个阶段,跨云中所有不同的计算需求,以及从云到企业再到机器人,都采用一种架构。
问答环节:深入探讨增长、供应与战略
提问: 太好了,谢谢。我想知道你是否可以更新一下。在GTC上,你谈到了Blackwell加上Rubin在25和26年收入达5000亿美元。当时,你说其中1500亿美元已经发货。那么,随着本季度结束,这些仍然是大致的参数,即在接下来的大约14个月内有3500亿美元吗?而且,我想你们在那段时间里并没有看到所有的需求。随着我们前进,这些数字是否有上涨的可能性。
(科莱特)好的,谢谢,我将首先对此做出回应。努力实现我们5000亿美元的预测。而且我们正朝着这个目标前进,因为我们已经完成了几个季度。现在我们还有几个季度的时间,直到26日历年结束。这个数字将会增长。我相信,我们将实现到26财年为止需要交付的额外计算需求。
因此,我们本季度出货了500亿,但如果我们不说我们可能会收到更多订单,那就说明我们还没完成。例如,就在今天,我们与沙特阿拉伯的公告,仅那项协议本身就包括三年内再增加40万到60万个GPU。Anthropic也是全新的增量。因此,我们绝对有机会在已宣布的5000亿美元的基础上获得更多收益。
提问: 下午好。感谢您接受提问。显然,人们对人工智能基础设施建设的规模以及为这些计划提供资金的能力和投资回报率感到非常担忧。然而,与此同时,你们却说已经售罄。每个已启动的GP(通用处理器)都被拿走了。人工智能世界尚未看到B-300带来的巨大好处,更不用说Rubin了。并且Gemini 3刚刚宣布GROC 5即将推出。所以问题是,当您将这些作为背景时,您是否认为在未来12到18个月内,供应赶上需求存在一条现实的路径,还是您认为它可能会超出这个时间范围?
正如您所知,我们在规划供应链方面做得非常好。英伟达的供应链基本上包括了世界上所有的科技公司。台积电及其封装部门,还有我们的内存供应商和内存合作伙伴,以及我们所有的系统原始设计制造商(ODM)在与我们合作规划方面做得非常好。我们当时计划迎来一个大年。
我们已经看到我刚才提到的三个转型有一段时间了。从通用计算到加速计算。
认识到人工智能不仅仅是代理式人工智能,这一点非常重要,而且生成式人工智能正在改变超大规模企业在CPU上所做工作的方式。生成式人工智能使他们能够转移搜索和推荐系统,并增加推荐和目标定位。所有这些都已经生成,已经被转移到生成式人工智能,并且仍在转型中。
因此,无论您是否为数据处理安装英伟达GPU,或者您是否为您的推荐系统安装生成式人工智能。
或者你正在为代理式聊天机器人以及大多数人在想到人工智能时所看到的那种人工智能构建它。所有这些应用都通过英伟达加速。因此,当你审视总支出时,思考每一层都非常重要。它们都在增长。它们相关,但并不相同。但奇妙之处在于它们都运行在英伟达GPU上。
同时进行,因为人工智能模型的质量正在以惊人的速度提高。它在不同用例中的采用,无论是在代码辅助方面(英伟达对此进行了相当彻底的使用),而且我们不是唯一一家。历史上增长最快的应用程序,是Cursor、Clyde Code、OpenAI的Codex和GitHub Copilot的组合。GitHub Copilot。这些应用程序是历史上增长最快的。而且它不仅仅用于软件工程师。因为语境编码,它被公司各处的工程师和营销人员使用。遍布各公司的供应链计划员。我认为这只是一个例子,这样的例子不胜枚举,无论是公开证据以及他们在医疗保健领域所做的工作,还是在数字视频编辑领域正在进行的工作,比如Runway。利用生成式人工智能和代理式人工智能的真正令人兴奋的初创公司的数量正在快速增长。更不用说,我们都在更多地使用它。
因此,所有这些指数增长,更不用说,就在今天,我读到了Demis发来的短信,他说预训练和后训练都完全没问题。Gemini III利用了缩放定律,并且在质量性能和模型性能方面取得了巨大的飞跃。因此,我们看到所有这些指数级增长几乎同时发生。并且始终回到第一性原理,思考我之前提到的每一个动态正在发生的事情,从通用计算到加速计算,生成式人工智能取代传统的机器学习,当然还有代理式人工智能,这是一个全新的类别。
下一个问题来自美国银行证券的Vivek Aria。
提问: 感谢回答我的问题。我很好奇,在5000亿美元的数字中,你对英伟达每千兆瓦的内容做出了哪些假设?因为我们听说过,每千兆瓦的内容低至250亿美元,高达30或400亿美元的数字。所以我很好奇,作为5000亿美元数字的一部分,你对每千兆瓦的功率和美元做出了什么假设。然后从长远来看,黄仁勋,提到了到2030年数据中心将达到3到4万亿美元。你认为其中有多少需要供应商融资,又有多少可以由你的大客户或政府或企业的现金流来支持?谢谢。
从安培架构到Hopper架构,从Hopper架构到Blackwell架构,从Blackwell架构到Rubin架构,每一代我们都是数据中心增长的一部分。Hopper架构那一代大概是20多,20到25左右。Blackwell架构那一代,特别是Grace Blackwell,可能在30到30,大约30上下。然后Rubin架构可能比这更高。
在每一代中,速度都会提升X倍。因此,他们的TCO,客户的TCO,也会提高X倍。最重要的是,最终你仍然只有1吉瓦的电力。1吉瓦的数据中心,1吉瓦的电力。因此,每瓦性能,你的架构效率就显得极其重要。你的架构效率极其重要。你的架构效率不能靠蛮力。这件事不能靠蛮力解决。这1吉瓦直接转换。
你的每瓦性能直接转换,绝对直接地转换到你的收入。
这就是为什么现在选择正确的架构如此重要的原因。这个世界没有任何东西可以浪费。所以我们必须非常非常,我们使用一个叫做代码设计的概念。贯穿我们整个堆栈,贯穿框架和模型,贯穿整个数据中心,甚至电力和冷却,在我们的生态系统中,对整个供应链进行优化。
因此,每一代,我们的经济贡献都会更大。
我们提供的价值会更大,但最重要的是,我们每一代的能源效率将会非常出色。关于持续增长。我们的客户,我们的客户融资取决于他们。我们是,我们看到在相当长的一段时间内增长的机会。记住,今天,大部分的重点都集中在超大规模企业上。
关于超大规模企业,一个真正被误解的领域是,对英伟达GPU的投资不仅提高了他们的规模、速度,还降低了通用计算的成本。
这是第一点,因为摩尔定律已经,摩尔定律确实已经放缓。摩尔定律是关于降低成本。它是关于通货紧缩的成本,随着时间的推移,计算的惊人通货紧缩成本。但这已经放缓。因此,他们需要一种新的方法来继续降低成本。转向英伟达GPU计算实际上是最好的方法。
第二种方法是提高他们当前商业模式的收入。
推荐系统驱动着世界上的超大规模企业。无论是观看短视频、推荐书籍、推荐您购物篮中的下一个商品、推荐广告,还是推荐新闻,一切都与推荐系统有关。互联网世界拥有数万亿的内容。如果没有非常复杂的推荐系统,他们怎么可能知道该把什么内容推送给您和您的小屏幕呢?现在,这一切都转向了生成式人工智能。所以,我刚才说的前两点,数千亿美元的资本支出必须投入,这完全是由现金流来资助的。
因此,位于其之上的是代理式人工智能。这部分收入是全新的,是全新的消费,同时也是全新的应用。我之前提到过一些应用,但这些新的应用也是历史上增长最快的应用。好吗?所以我认为,一旦人们开始了解水面下实际发生的事情,也就是从对资本支出投资所发生事情的简单看法,认识到存在这三种动态,你就会看到这种情况。
最后,请记住,我们刚才还在谈论美国的通信服务提供商(CSP)。每个国家都将资助自己的基础设施建设。你拥有多个国家。你拥有多个行业。世界上大多数行业还没有真正参与到自主人工智能中,但他们即将参与。所有你知道的我们正在合作的公司的名字,无论是自动驾驶汽车公司,还是用于工厂物理人工智能的数字孪生,以及世界各地正在建造的工厂和仓库的数量,仅仅是数字生物学初创公司的数量,它们正在获得资金,以便我们能够加速药物发现。所有这些不同的行业现在都参与进来了,他们将进行自己的融资。所以不要只看,不要只把超大规模企业看作是为未来发展的方式。你必须放眼世界。你必须关注所有不同的行业,企业计算将资助他们自己的行业。
下一个问题来自Melius的Ben Reitz。
提问: 非常感谢。黄仁勋,我想问问你关于现金的问题,说到五千亿,你们在未来几年可能会产生大约五千亿的自由现金流。你们打算如何使用这些现金?有多少用于回购,有多少用于投资生态系统,以及你们如何看待投资生态系统?我认为人们对这些交易的运作方式以及你们进行这些交易的标准存在很多困惑,比如 Anthropic、OpenAI 等。非常感谢。
感谢你的提问。当然,使用现金来资助或促进增长,没有一家公司能像我们所说的这样规模增长,并且拥有英伟达这样的供应链的连接、深度和广度。我们的整个客户群可以依赖我们的原因是,我们已经确保了一条非常,非常有弹性的供应链,并且我们有资产负债表来支持他们。
当我们进行采购时,我们的供应商可以将其存入银行。
当我们进行预测并用它们进行规划时,他们会认真对待我们,因为我们的资产负债表很稳健。我们不是在编造承购量。我们知道我们的承购量是多少。
并且因为他们与我们一起规划了这么多年,我们的声誉和信誉是令人难以置信的。
因此,要做到这一点,要支持增长的水平、增长的速度以及与之相关的规模,需要非常强大的资产负债表。这是第一点。第二件事,当然,我们将继续进行股票回购。我们将继续这样做。但关于投资,这是我们做的非常非常重要的工作。
我们到目前为止所做的所有投资,嗯,一直以来,都是与扩大CUDA的影响范围、扩大生态系统相关的。如果你看看我们对Open AI所做的投资工作,当然,那是我们自2016年以来一直保持的关系,我向Open AI交付了有史以来第一台AI超级计算机。因此,我们与Open AI自那时起就保持着密切而美好的关系。Open AI所做的一切现在都在英伟达上运行。因此,他们部署的所有云,无论是训练还是推理,都在运行,我们喜欢与他们合作。我们与他们建立的合作关系是为了我们能够从技术角度进行更深入的合作,从而支持他们加速增长。这是一家发展极其迅速的公司。不要只看,不要只看媒体报道的内容,看看所有生态系统合作伙伴和连接到Open AI的所有开发者。他们都在推动它的消耗。自一年前以来,所产生的人工智能质量有了巨大的提升。因此,响应的质量非常出色。因此,我们投资Open AI是为了在共同开发方面建立深厚的合作伙伴关系,以扩展我们的生态系统并支持他们的增长。
当然,我们不是放弃我们公司的股份,而是获得他们公司的股份。我们投资了他们,他们是一家最重要的、几十年一遇的公司,我们持有他们的股份。
所以我完全期望这项投资能转化为非凡的回报。
现在,就Anthropic而言,这是Anthropic首次在NVIDIA的架构上运行。Anthropic首次在NVIDIA架构上运行,而Anthropic是全球用户总数第二大的人工智能公司。但在企业领域,他们做得非常出色。Claude代码做得非常出色。全世界的企业都在使用。现在我们有机会与他们建立深厚的合作关系,并将Clod引入NVIDIA平台。
那么我们现在有什么呢?英伟达的架构,退一步讲,英伟达的架构,英伟达的平台,它是世界上唯一运行所有人工智能模型的平台。
我们运行OpenAI,我们运行Anthropic,我们运行XAI,因为我们与埃隆和XAI的深度合作,我们能够将这个机会带给沙特阿拉伯,带给沙特王国,这样Humane也可以为XAI提供托管机会。
我们运行XAI。我们运行Gemini。我们运行思考机器(Thinking Machines)。
让我们看看,我们还运行什么?我们运行所有这些。且不说,我们还运行科学模型、生物模型、DNA模型、基因模型、化学模型以及世界各地所有不同的领域。世界使用的不仅仅是认知人工智能。人工智能正在影响着每一个行业。
因此,我们有能力进行生态系统投资,并在技术层面上与世界上一些最好的、最杰出的公司进行深度合作。我们正在扩大生态系统的覆盖范围,并参与对一家非常成功的公司的投资,往往是几代人才能出现一次的公司。基本上,这就是我们的投资理念。
下一个问题来自高盛的吉姆·施耐德。
提问: 下午好。感谢您接受我的提问。过去,你曾提到大约 40% 的出货量与人工智能推理有关。我想知道,展望明年,你预计这个比例在一年后会达到多少?也许可以谈谈你预计明年推出的鲁本CPX产品?并将其置于语境中加以说明。您预计总体潜在市场有多大,并且能否谈谈该特定产品的目标客户应用?谢谢。
CPX专为长上下文类型的工作负载生成而设计。
黄仁勋: 因此,长上下文基本上是指,在开始生成答案之前,您必须阅读大量内容,基本上,您知道,长上下文。而且可能是一群人。可能是观看大量视频,研究3D图像等等。您必须吸收上下文。因此,CPX专为长上下文类型的工作负载而设计。而且它的每美元性能,每美元性能非常出色。它的每瓦性能非常出色。
是的。存在同时进行的缩放定律。第一条缩放定律,称为预训练,仍然非常有效。
第二条是后训练。后训练基本上发现了令人难以置信的算法,可以提高人工智能分解问题并逐步解决问题的能力。而且后训练呈指数级增长。基本上,你对模型应用的计算越多,它就越聪明,就越智能。
然后第三个是推理。推理,由于思维链,由于推理能力,人工智能本质上是在回答之前进行阅读和思考。而由于这三件事导致的必要计算量已经完全呈指数级增长。
我认为很难知道。在任何给定的时间点上,具体百分比是多少,以及谁。当然,我们的希望是,推理在市场中占据非常大的份额。因为如果推理规模很大,那就表明人们在更多的应用中使用它,而且更频繁地使用它。这就是,我们都应该希望推理规模非常大。而在这方面,Grace Blackwell比世界上任何东西都好一个数量级,更加先进。排名第二的平台是H-200。现在非常清楚的是,由于我们拥有的NB-Link-72,这种扩展网络,GB-200和GB-300。便宜,而且你看到了,Collette在研讨会分析基准测试中谈到了这一点,这是有史以来最大的单一推理基准测试。而且GB-G-200,M-B-Link-72的性能高出10倍,10到15倍。所以这是一个很大的进步。在有人能够承担这项任务之前,还需要很长时间。而且我们在那里的领导地位肯定是多年性的。是的。所以我希望推理能够变得非常重要。我们在推理方面的领导地位是非凡的。
下一个问题来自瑞银的蒂莫西·阿库里。
提问:黄仁勋,你的许多客户都在追求电表后的电力,但什么是最让你担心的、可能限制你增长的单一最大瓶颈?是电力,还是融资,或者可能是其他因素,比如内存,甚至是代工厂?非常感谢。
黄仁勋: 嗯,这些都是问题,也都是约束。究其原因,当你以我们这样的速度和规模增长时,任何事情都不可能容易。显然,英伟达正在做的事情是前所未有的。之前从未有过。而且我们创造了一个全新的行业。
一方面,我们正在将计算从经典或传统计算中的通用计算过渡到加速计算和人工智能。这是一方面。另一方面,我们创造了一个名为人工智能工厂的全新行业。这种理念是,为了使软件运行,你需要这些工厂来生成它,生成每一个token,而不是检索预先创建的信息。所以我想整个转型需要非凡的规模。
从供应链的各个方面来看,当然,供应链方面,我们对其有更好的可见性和控制,因为,显然我们非常擅长管理我们的供应链。我们有很棒的合作伙伴,我们已经合作了33年。
因此,我们对供应链部分非常有信心。现在,审视我们的供应链,我们已经与土地、电力、壳牌以及当然还有融资领域的众多参与者建立了伙伴关系。这些事情没有一件是容易的,但它们都是可以实现的,而且都是可以解决的事情。我们必须做的最重要的事情就是做好规划。我们向上游供应链和下游供应链进行规划。我们已经建立了很多合作伙伴。所以我们有很多工作要做。
市场路线,非常,非常重要的是,我们的架构必须为我们的客户提供最佳价值。所以在这一点上,我非常有信心英伟达的架构是每TCL的最佳性能。它是每瓦的最佳性能。因此,对于交付的任何能量,我们的架构都将驱动最多的收入。
我认为我们成功的速度在不断提高,我认为今年到目前为止,我们比去年同期更加成功。
在探索了其他平台之后,来找我们的客户数量和平台数量正在增加,而不是减少。所以我认为,我认为所有这些,所有我多年来一直告诉你的事情,真的正在成为现实,或者变得越来越明显。
下一个问题来自伯恩斯坦研究公司的斯泰西·拉斯金。
提问: 科莱特,我有一些关于利润率的问题。她说,明年,你们正在努力将利润率保持在75%左右。所以我想,首先,最大的增长是什么,是仅仅是内存,还是其他因素?你们在朝着这个目标做什么?这是,有多少是成本优化、提前购买和定价?然后还有,考虑到收入似乎很可能从我们目前的水平大幅增长,我们应该如何看待明年的运营支出增长?
科莱特: 谢谢,斯泰西。我先试着回顾一下我们目前所处的财政年度的情况。记得今年早些时候,我们表示通过成本改进和产品结构优化,我们将在年底使毛利率达到70%多,我们已经实现了这一目标,并准备在第四季度也执行这一目标。所以现在是我们沟通明年工作重点的时候了。
明年,有一些投入价格是业内众所周知-的,我们需要加以应对。而且我们的系统绝不是那么容易使用的。当我们考虑这些的时候,其中有大量的组件,许多不同的部分。因此,我们正在将所有这些因素考虑在内,但我们确实相信,如果我们再次着手进行成本改进、周期时间和产品结构优化,我们将努力将毛利率保持在75%左右。这就是我们毛利率的总体计划。
你的第二个问题是关于运营支出。目前,我们在运营支出方面的目标是真正确保我们与我们的工程团队以及我们所有的业务团队一起进行创新,为这个市场创造越来越多的系统。正如你所知,目前我们有一个新的架构即将推出。这意味着他们为了实现这个目标而相当忙碌。因此,我们将继续看到我们在不断创新方面的投资。包括我们的软件、系统和硬件都是如此。如果黄仁勋想补充一些评论,我将把发言权交给他。
黄仁勋: 我认为说得很对。我想唯一可以补充的是,记住我们提前很久就计划、预测、规划并与我们的供应链协商。我们的供应链已经很长时间都知道我们的需求,并且很长时间都知道我们的需求,而且我们已经与他们合作并与他们谈判了很长时间。因此,我认为最近的激增显然非常显著。但请记住,我们的供应链已经与我们合作很长时间了。因此在很多情况下,我们为自己确保了大量的供应,因为,很明显他们在与世界上最大的公司合作。而且我们还在财务方面与他们密切合作,并确保预测和计划等等。所以我认为所有这些对我们来说都进展顺利。
最后一个问题来自富国银行的亚伦·雷克斯。
提问: 谢谢你接受提问。黄仁勋,这个问题是问你的。考虑到已经宣布的Anthropic交易以及您客户的总体范围,我想知道您对AI ASIC或专用XPU在这些架构构建中扮演的角色的看法是否发生了变化。你有没有看到,我认为你过去一直非常坚定地认为其中一些项目永远不会真正部署,但我想知道我们是否已经到了一个可能更有利于GPU架构的转折点。谢谢。
黄仁勋: 非常感谢,我真的很感谢这个问题。
首先,作为一个公司,你是在和团队竞争。而且,世界上并没有那么多团队擅长构建这些极其复杂的东西,并在这方面表现出色。在霍珀时代和安培时代,我们只会构建一个GPU。 那就是加速AI系统的定义。但是今天,我们必须构建整个机 rack,整个,三种不同类型的交换机。一种是纵向扩展,一种是横向扩展,还有一种是跨越扩展交换机。而且现在构建一个计算节点需要的不仅仅是一个芯片。该计算系统的一切,因为AI需要内存,而AI过去根本不需要内存。现在它必须记住事情。它拥有的内存和上下文数量非常巨大。内存架构的影响令人难以置信。
思维的多样性。从专家混合模型到稠密模型,再到扩散模型,以及自回归模型,更不用说,遵循物理定律的生物模型。在过去的几年里,不同类型的模型数量呈爆炸式增长。因此,挑战在于问题的复杂性要高得多。人工智能模型的多样性非常非常大。
所以这就是,如果我说,使我们与众不同的五件事,如果你愿意这么说。我要说的第一件让我们与众不同的事情是,我们加速了过渡的每个阶段。这是第一阶段。CUDA允许我们使用CUDA从通用加速计算过渡。我们在生成式人工智能方面非常出色。我们在代理式人工智能方面非常出色。所以,在那里的每一个阶段,那次转变的每一层,我们都非常擅长。你可以投资于一种架构,并在各个方面使用它。你可以使用一种架构,而不必担心这三个阶段中工作负载的变化。这是第一点。
第二点,我们在人工智能的每个阶段都非常出色。大家都一直知道我们在预训练方面非常出色。
显然,我们非常擅长后训练。事实证明,我们非常擅长推理,因为推理真的非常、非常难。思考怎么会容易呢?人们认为推理是一蹴而就的,因此很容易。任何人都可以用那种方式进入市场。但事实证明这是最难的,因为思考,事实证明,是很困难的。我们擅长人工智能的每个阶段。第二件事。
第三件事是,我们现在是世界上唯一可以运行每种人工智能模型、每种前沿人工智能架构。我们运行开源人工智能模型,效果非常好。我们运行科学模型。生物学模型、机器人模型,我们运行每一个模型。我们是世界上唯一可以声称做到这一点的架构。无论是自回归还是基于扩散,都无关紧要。我们运行一切。而且正如我刚才提到的,我们为每个主要平台都运行它。所以我们运行每个模型。
然后我要说的第四点是,我们在每个云环境中。
开发者喜欢我们的原因是,我们真的无处不在。我们在每个云环境中。我们在每一个,我们甚至可以为你创建一个叫做DGX Spark的小型云。所以我们在每一台计算机中。我们无处不在,从云到本地部署,再到机器人系统、边缘设备、个人电脑,你能想到的都有。
单一架构,一切正常运行。黄仁勋: 这太不可思议了。
最后一点,这可能也是最重要的一点,第五点,如果你是云服务提供商,如果你是一家像Humane一样的新公司,如果你是一家像CoreWeaver、N-scale、Nebius或OCI一样的新公司,那么NVIDIA是你的最佳平台的原因是我们的承接能力非常多样化。
我们可以帮助你承接。这不仅仅是把一个随机的ASIC芯片放入数据中心。承接来自哪里?多样性来自哪里?韧性来自哪里?架构的通用性来自哪里?能力的多样性来自哪里?Nvidia拥有如此出色的承接能力,因为我们的生态系统非常庞大。所以这五件事。加速和过渡的每个阶段,人工智能的每个阶段,每个模型,每个云到本地部署,当然,最后,这一切都导向承购。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.