网易首页 > 网易号 > 正文 申请入驻

英伟达财报会实录:三大转型驱动AI基建投资 5000亿美元收入目标有望再突破

0
分享至

财联社11月20日讯(编辑 刘蕊)美东时间周三盘后,英伟达公布了亮眼的第三季度财报。英伟达CEO黄仁勋和CFO科莱特·克雷斯(Colette Kress)在财报会上,强调了英伟达产品需求仍然爆棚,下游客户正从人工智能中受益。

同时,英伟达高管们还回答了分析师们关于英伟达收入目标、产品迭代、现金规划、战略合作以及AI行业趋势、电力供应瓶颈等问题。

黄仁勋重点强调了三个根本性的转型——从CPU到GPU的加速、生成式人工智能的主流化以及智能人工智能的出现——他表示,这三大转型将为多年基础设施投资提供核心驱动力。

日期

美国东部时间2025年11月19日下午5点

参会人员

•总裁兼首席执行官——黄仁勋(Jensen Huang)

•执行副总裁兼首席财务官——科莱特·克雷斯(Colette Kress)

•投资者关系副总裁——Toshiya Hari

核心要点

•人工智能平台需求——管理层强调GPU装机容量已完全利用,“云服务已售罄”,表明供需失衡状况持续存在。英伟达此前提出的今明两年收入5000亿美元的目标肯定还有进一步增长的机会。

•Blackwell平台——GB 300约占Blackwell总收入的三分之二;GB 300目前引领产品转型,获得了广泛的客户认可。

•战略合作伙伴关系与投资——宣布与AWS、Humane、铃木、英特尔、ARM和Anthropic等合作伙伴达成合作;新人工智能工厂项目涉及多达500万块GPU。

•Rubin平台——按计划将于2026年量产,首块芯片已交付,重点关注向后兼容性和生态系统的快速应用。

•性能领先优势——管理层称,在DeepSeek r1基准测试中,Blackwell Ultra的训练速度是Hopper的5倍,每瓦性能是H200的10倍,每令牌成本比H200低10倍。

•战略投资——持续向OpenAI和Anthropic等人工智能模型开发商投资,以深化生态系统影响力和性能优化。

•供应链扩张——与台积电合作,在美国本土生产出第一片Blackwell晶圆;持续努力扩大供应冗余度和韧性。

•中国市场收入限制——科莱特·克雷斯表示:“受地缘政治问题及中国市场竞争加剧影响,本季度大额采购订单未能兑现”,这直接影响了面向中国的数据中心计算产品出货量,但英伟达仍致力于继续与美国和中国政府沟通。

•投入成本上升——科莱特·克雷斯指出:“投入成本持续上涨,但我们正努力将毛利率维持在75%左右”,这凸显了2027财年面临的利润率压力。

英伟达财报电话会议实录(由人工智能辅助翻译,部分内容有删减)

Toshiya Hari:各位下午好,欢迎参加英伟达公司2026财年第三季度财报电话会议。今天与我一同出席的是英伟达公司总裁兼首席执行官黄仁勋先生,以及执行副总裁兼首席财务官科莱特·克雷斯女士。接下来,我将会议交给科莱特。

科莱特·克雷斯:谢谢。我们交付了又一个出色的季度,营收达到570亿美元,同比增长62%,环比创纪录增长100亿美元(增幅22%)。我们的客户继续投身于三大平台转型,这些转型为加速计算、强大的人工智能模型和智能体应用带来了指数级增长。然而,这些转型仍处于早期阶段,将影响我们各个行业的业务。目前,我们预计从今年年初到2026年12月,Blackwell和Rubin平台的收入将达到5000亿美元。

通过执行年度产品周期,并通过全栈设计扩大性能领先优势,我们相信英伟达公司将成为截至本十年末,每年3至4万亿美元人工智能基础设施建设的首选合作伙伴。人工智能基础设施需求持续超出我们的预期。云服务已售罄,我们的GPU装机容量(包括Blackwell、Hopper和Ampere等新旧产品系列)均已完全利用。第三季度数据中心营收创下510亿美元的纪录,同比增长66%,在我们的规模下,这是一项显著成就。

计算部门同比增长56%,主要得益于GB 300的量产;而随着NVLink规模扩大,以及Spectrum X以太网和Quantum X InfiniBand业务实现两位数的强劲增长,网络业务收入增长超过一倍。超大规模云计算行业(规模达万亿美元)正将搜索推荐和内容理解从传统机器学习转向生成式人工智能。英伟达CUDA在这两方面均表现出色,是这一转型的理想平台,推动了数千亿美元的基础设施投资。在Meta,人工智能推荐系统提供了更高质量和更相关的内容,使得用户在Facebook和Threads等应用上花费的时间更多。

分析师对2026年顶级云服务提供商(CSP)和超大规模云计算厂商的总资本支出预期持续上升,目前约为6000亿美元,较年初增加了2000多亿美元。我们认为,当前超大规模计算工作负载向加速计算和生成式人工智能的转型,将占据我们长期机会的约一半。

另一个增长支柱是基础模型开发商(如Anthropic、Mastral、OpenAI、Reflection、Safe Superintelligence、Thinking Machines Lab和xAI)推动的计算支出持续增长。所有这些公司都在积极扩大计算规模,以提升智能水平。预训练、后训练和推理这三大缩放定律仍然有效。

事实上,我们看到一个积极的良性循环正在形成:这三大缩放定律以及计算资源的可及性正在催生更先进的智能,进而提高应用普及率和利润。

OpenAI最近表示,其周用户基数已增长至8亿,企业客户增至100万,毛利率表现良好。Anthropic最近报告称,截至上个月,其年化营收已达70亿美元,高于年初的10亿美元。我们还看到智能体人工智能在各个行业和任务中迅速普及。

Cursor Anthropic、Open Evidence、Epic和Abridge等公司的用户增长迅猛,它们为现有员工赋能,为编码人员和医疗专业人员带来了显著的投资回报率(ROI)。ServiceNow、CrowdStrike和SAP等全球最重要的企业软件平台正在整合英伟达的加速计算和人工智能技术栈。我们的新合作伙伴Palantir首次利用英伟达CUDA X库和人工智能模型,为广受欢迎的本体论平台(Ontology)赋能。此前,与大多数企业软件平台一样,Ontology仅运行在CPU上。劳氏(Lowe's)正利用该平台提升供应链灵活性,降低成本并提高客户满意度。企业普遍利用人工智能提高生产力、提升效率并降低成本。

加拿大皇家银行(RBC)利用智能体人工智能显著提高了分析师的工作效率,将报告生成时间从数小时缩短至数分钟。人工智能和数字孪生技术帮助联合利华(Unilever)将内容创作速度提高了一倍,并削减了5.5亿美元成本。Salesforce的工程团队在采用Cursor后,新代码开发效率至少提高了30%。本季度,我们宣布了人工智能工厂和基础设施项目,涉及总计500万块GPU。这些需求涵盖所有市场,包括云服务提供商、主权国家、现代开发商、企业和超级计算中心,其中包括多个具有里程碑意义的建设项目:xAI的Colossus Two(全球首个吉瓦级数据中心)、礼来(Lilly)的药物研发人工智能工厂(制药行业最强大的数据中心)。

就在今天,AWS和沙特Humane扩大了合作,包括部署多达15万块人工智能加速器(含我们的GB 300);xAI和Humane还宣布建立合作伙伴关系,将联合开发以旗舰级500兆瓦设施为核心的世界级GPU数据中心网络。Blackwell在第三季度势头进一步增强,GB 300的收入占Blackwell总收入的比例超过了GB 200,达到约三分之二。向GB 300的转型无缝衔接,已向大多数主要云服务提供商、超大规模云计算厂商和GPU云平台批量出货,并已开始推动它们的增长。Hopper平台自推出以来已进入第十三个季度,第三季度收入约为20亿美元。H200销售额约为5000万美元。

受地缘政治问题和中国市场竞争加剧影响,本季度大额采购订单未能兑现。尽管目前的状况使我们无法向中国市场运送更具竞争力的数据中心计算产品,这让我们感到失望,但我们仍致力于继续与美国和中国政府沟通,并将继续倡导美国在全球范围内的竞争力。为了在人工智能计算领域建立可持续的领导地位,我们必须赢得每位开发者的支持,并成为包括中国企业在内的所有商业企业的首选平台。

Rubin平台按计划将于2026年量产。Vera Rubin平台由七块芯片提供支持,将再次实现相对于Blackwell的数倍性能提升。我们已从供应链合作伙伴处收到芯片,并且很高兴地报告,英伟达全球团队的产品启动工作进展顺利。Rubin是我们的第三代机架式系统,在保持与Grace Blackwell兼容性的同时,大幅优化了可制造性。我们的供应链、数据中心生态系统和云合作伙伴现已熟练掌握英伟达RAC架构的制造和安装流程。我们的生态系统将为Rubin的快速量产做好准备。我们每年数倍的性能领先优势提高了每美元性能,同时降低了客户的计算成本。

英伟达CUDA GPU的长使用寿命相对于其他加速器具有显著的总拥有成本(TCO)优势。CUDA的兼容性和我们庞大的装机容量,使得英伟达系统的使用寿命远远超出最初的预计。二十多年来,我们不断优化CUDA生态系统,改进现有工作负载,加速新工作负载,并通过每次软件更新提高吞吐量。大多数没有CUDA以及英伟达经过时间考验的通用应用架构的加速器,随着模型技术的发展,在几年内就会被淘汰。得益于CUDA,我们六年前推出的A100 GPU至今仍在满负荷运行,这要归功于大幅改进的软件栈。

过去25年来,我们已从一家游戏GPU公司发展成为如今的人工智能数据中心基础设施公司。我们在CPU、GPU、网络和软件领域的创新能力,以及最终降低每令牌成本的能力,在行业内无可匹敌。我们专为人工智能打造的网络业务现已成为全球最大的网络业务,营收达82亿美元,同比增长162%,NVLink、InfiniBand和Spectrum X以太网均为增长做出了贡献。我们在数据中心网络领域占据领先地位,如今大多数人工智能部署都包含我们的交换机,以太网GPU连接率与InfiniBand大致相当。

Meta、微软、甲骨文和xAI正在利用Spectrum X以太网交换机建设吉瓦级人工智能工厂,每家公司都将运行自己选择的操作系统,这凸显了我们平台的灵活性和开放性。我们最近推出了Spectrum XGS(一种跨尺度技术),支持千兆级人工智能工厂建设。英伟达是唯一一家拥有人工智能纵向扩展、横向扩展和跨尺度扩展平台的公司,这强化了我们作为人工智能基础设施提供商在市场中的独特地位。客户对NVLink Fusion的兴趣持续增长。10月,我们宣布与铃木建立战略合作,将通过NVLink Fusion整合富士通的CPU和英伟达的GPU,连接我们庞大的生态系统。

我们还宣布与英特尔合作,开发多代定制数据中心和个人电脑产品,通过NVLink连接英伟达和英特尔的生态系统。本周在超级计算25大会上,安谋(Arm)宣布将整合NVLink IP,供客户开发可与英伟达产品连接的CPU片上系统(SoC)。NVLink目前已发展至第五代,是市场上唯一经过验证的纵向扩展技术。在最新的MLPerf训练测试中,Blackwell Ultra的训练速度是Hopper的5倍。英伟达在所有基准测试中均名列前茅。值得注意的是,英伟达是唯一一家支持FP4精度且符合MLPerf严格精度标准的训练平台。

在Semianalysis的推理Max基准测试中,Blackwell在所有模型和用例中均实现了最高性能和最低总拥有成本。尤其重要的是,Blackwell的NVLink在混合专家模型(全球最受欢迎的推理模型架构)上的性能表现。在DeepSeek r1测试中,与H200相比,Blackwell的每瓦性能提升了10倍,每令牌成本降低了10倍。

这一巨大的代际飞跃得益于我们的极致协同设计方法。英伟达Dynamo(一种开源、低延迟、模块化推理框架)现已被所有主要云服务提供商采用。借助Dynamo的支持和分布式推理,混合专家模型等复杂人工智能模型的性能得到了提升。AWS、谷歌云、微软Azure和OCI已为企业云客户提升了人工智能推理性能。我们正与OpenAI建立战略合作伙伴关系,重点帮助他们建设和部署至少10吉瓦的人工智能数据中心。此外,我们还有机会对该公司进行投资。目前,我们通过其云合作伙伴(微软Azure、OCI和CoreWeave)为OpenAI提供服务。

在可预见的未来,我们将继续这样做。随着他们的规模不断扩大,我们很高兴支持该公司增加自建基础设施,目前我们正在推进一项最终协议,并期待支持OpenAI的发展。昨天,我们与Anthropic宣布了一项合作。Anthropic将首次采用英伟达架构,我们将建立深度技术合作伙伴关系,支持Anthropic的快速增长。我们将合作优化Anthropic模型与CUDA的兼容性,以实现最佳性能、效率和总拥有成本。我们还将针对Anthropic的工作负载优化未来的英伟达架构。Anthropic的计算承诺最初包括高达1吉瓦的计算容量,将采用Grace Blackwell和Vera Rubin系统。

我们对Anthropic、Mastral、OpenAI、Reflection、Thinking Machines等公司的战略投资,代表着能够扩大英伟达CUDA人工智能生态系统的合作伙伴关系,并使每个模型都能在英伟达的全系列产品上实现最佳运行。我们将继续进行战略投资,同时保持严谨的现金流管理方法。物理人工智能已经成为一项数十亿美元规模的业务,有望带来数万亿美元的市场机会,也是英伟达的下一个增长引擎。美国领先的制造商和机器人创新企业正利用英伟达的三计算架构:在英伟达上进行训练、在Omniverse计算机上进行测试、在Justin机器人计算机上部署真实世界的人工智能。

PTC和西门子推出了新服务,将Omniverse支持的数字孪生工作流带给其广泛的现有客户。Belden、卡特彼勒(Caterpillar)、富士康(Foxconn)、Lucid Motors、丰田(Toyota)、台积电(TSMC)和纬创(Wistron)等公司正在建设Omniverse数字孪生工厂,以加速人工智能驱动的制造业和自动化发展。Agility Robotics、亚马逊机器人(Amazon Robotics)、Figure和Skilled AI等公司正在基于我们的平台进行开发,利用英伟达Cosmos世界基础模型(用于开发)、Omniverse(用于仿真和验证)以及Jetson(为下一代智能机器人提供动力)等产品。我们始终致力于构建具有韧性和冗余度的全球供应链。上个月,我们与台积电合作,在美国本土生产出了第一片Blackwell晶圆。

未来四年,我们将继续与富士康、纬创、Amcor、Spill等公司合作,扩大在美国的业务布局。游戏业务收入为43亿美元,同比增长30%,这得益于强劲的市场需求——共有4200万游戏玩家参与,数千名粉丝齐聚韩国的GeForce游戏节,庆祝GeForce诞生25周年。英伟达专业可视化业务已发展为面向工程师和开发者的计算解决方案,无论是用于图形处理还是人工智能应用。专业可视化业务收入为7.6亿美元,同比增长56%,再创纪录,增长主要由DGX Spark(全球最小的人工智能超级计算机,基于Grace Blackwell的小型配置构建)推动。

汽车业务收入为5.92亿美元,同比增长32%,主要由自动驾驶解决方案驱动。我们正与优步(Uber)合作,基于新的英伟达Hyperion L4自动驾驶出租车参考架构,扩大全球最大的L4级自动驾驶车队规模。接下来谈谈损益表的其他部分。GAAP毛利率为73.4%,非GAAP毛利率为73.6%,均超出我们的预期。得益于数据中心业务结构优化、周期时间缩短及成本结构改善,毛利率环比有所上升。GAAP运营费用环比增长8%,非GAAP运营费用环比增长11%,增长主要源于基础设施计算、薪酬福利增加以及工程开发成本上升。

第三季度非GAAP有效税率略高于17%,高于我们16.5%的指引,这主要受美国市场收入强劲增长的影响。在资产负债表方面,库存环比增长32%,供应承诺环比增长63%。我们正在为未来的显著增长做准备,并对我们把握市场机会的能力充满信心。接下来,我将第四季度展望交给大家。预计总收入为650亿美元,上下浮动2%。中点值意味着环比增长14%,这一增长将由Blackwell架构的持续增长势头推动。与上一季度一致,我们未计入来自中国的数据中心计算业务收入。

GAAP和非GAAP毛利率预计分别为74%和75%,上下浮动50个基点。展望2027财年,投入成本持续上涨,但我们正努力将毛利率维持在75%左右。GAAP和非GAAP运营费用预计分别约为67亿美元和50亿美元。GAAP和非GAAP其他收入和支出预计约为5亿美元(收入),不包括非上市和上市权益证券的损益。GAAP和非GAAP税率预计为17%,上下浮动1%,不包括任何非经常性项目。现在,我将会议交给黄仁勋先生,请他讲几句话。

黄仁勋:谢谢科莱特。关于人工智能泡沫的讨论很多。但从我们的角度来看,我们看到的情况完全不同。需要提醒的是,英伟达与其他任何加速器都不同。我们在人工智能的各个阶段都表现出色,从预训练、后训练到推理。

凭借我们拥有二十年历史的CUDA X加速库,我们在科学和工程仿真、计算机图形学、结构化数据处理以及传统机器学习方面也表现卓越。世界正同时经历三大平台转型,这是摩尔定律诞生以来的首次。英伟达独特地应对了这三大转型。

第一次转型是从CPU通用计算转向GPU加速计算。随着摩尔定律放缓,全球在非人工智能软件方面投入巨大,从数据处理到科学和工程仿真,每年在云计算方面的支出达数千亿美元。许多曾经仅在CPU上运行的应用程序,现在正迅速转向CUDA GPU。加速计算已达到临界点。

其次,人工智能也已达到临界点,正在改变现有应用程序,同时催生全新的应用程序。在现有应用程序方面,生成式人工智能正在取代搜索排名、推荐系统、广告定向、点击率预测和内容审核等领域的传统机器学习,这些都是超大规模基础设施的核心。Meta用于广告推荐的JEM基础模型(在大规模GPU集群上训练)就是这一转型的例证。

第二季度,Meta报告称,受基于生成式人工智能的JEM模型推动,Instagram的广告转化率提升了5%以上,Facebook动态的广告转化率提升了3%。向生成式人工智能转型为超大规模云计算厂商带来了可观的收入增长。

现在,一股新浪潮正在兴起——智能体人工智能系统,它们能够推理、规划和使用工具。从Cursor和QuadCode等编码助手,到iDoc等放射学工具、Harvey等法律助手,再到特斯拉FSD和Waymo等人工智能自动驾驶系统,这些系统标志着计算领域的下一个前沿。如今全球增长最快的公司(OpenAI、Anthropic、xAI、谷歌、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridge、特斯拉)都在开拓智能体人工智能。因此,这三大平台转型意义重大。

向加速计算的转型具有基础性和必要性,在后摩尔定律时代至关重要。向生成式人工智能的转型具有变革性和必要性,它为现有应用程序和商业模式赋能。向智能体人工智能和物理人工智能的转型将具有革命性,将催生出新的应用程序、公司、产品和服务。

在考虑基础设施投资时,请考虑这三大基本动态,它们都将在未来几年推动基础设施增长。英伟达之所以被选中,是因为我们独特的架构能够支持所有这三大转型,因此适用于所有行业、所有人工智能阶段、所有多样化计算需求,无论是在云端、企业还是机器人领域,都能通过一个架构实现。

Toshiya Hari:现在我们开放问答环节。操作员,请开始收集问题。

萨拉:第一个问题来自摩根士丹利的约瑟夫·摩尔(Joseph Moore),您的线路已接通。请提问。

约瑟夫·摩尔:谢谢。我想了解一下最新情况。你们在GTC大会上提到,Blackwell和Rubin在2025年和2026年的收入将达到5000亿美元。当时你们称其中已有1500亿美元的产品已出货。那么随着本季度结束,这些大致参数是否仍然适用?即在未来大约14个月左右,还有3500亿美元的收入空间?而且,我认为在这段时间里,你们还没有看到全部需求,随着时间推移,这些数字是否有可能上调?

科莱特·克雷斯:好的,谢谢乔。我先回应一下这个问题。是的,情况没错。我们正在朝着5000亿美元的预测目标前进,随着部分季度的完成,我们正按计划推进。现在距离2026年12月还有几个季度的时间。这个数字还会增长,我相信,到2026财年,我们还将满足更多可出货的计算需求。本季度我们出货额达500亿美元,但如果不说我们可能会收到更多订单,那就是不完整的。

例如,就在今天,我们与沙特阿拉伯(KSA)宣布了一项协议,仅该协议就涉及未来三年内新增40万至60万块GPU。Anthropic的合作也不是新的订单。因此,在我们宣布的5000亿美元基础上,肯定还有进一步增长的机会。

萨拉:下一个问题来自坎托·菲茨杰拉德(Cantor Fitzgerald)的C.J.缪斯(C.J. Muse),您的线路已接通。

C.J.缪斯:下午好。谢谢你们接受我的提问。显然,人们对人工智能基础设施建设的规模、资金筹措能力以及投资回报率存在诸多担忧。但与此同时,你们表示所有已部署的GPU都已被占用,云服务已售罄。人工智能行业尚未从GB 300中看到巨大收益,更不用说Rubin了。而且Gemini 3刚刚发布,Grok 5也即将推出。

所以我的问题是,在这样的背景下,您认为在未来12至18个月内,供应有可能赶上需求吗?还是说这种供需失衡可能会持续更长时间?

黄仁勋:嗯,如你所知,我们在供应链规划方面做得非常出色。英伟达的供应链基本上涵盖了全球所有科技公司。台积电(及其封装业务)、我们的内存供应商和合作伙伴,以及所有系统原始设计制造商(ODM)都与我们进行了出色的规划。我们一直在为丰收的一年做准备。你知道,我刚才提到的三大转型,我们已经关注了一段时间——加速计算、从通用计算向加速计算的转变。重要的是要认识到,人工智能不仅仅是智能体人工智能,生成式人工智能也在改变超大规模云计算厂商过去在CPU上完成的工作。

生成式人工智能使他们能够将搜索、推荐系统、广告推荐和定向等业务转移到生成式人工智能上。所有这些都已转向生成式人工智能,而且这一转型仍在进行中。因此,无论你是为数据处理、推荐系统的生成式人工智能,还是为大多数人眼中的人工智能(如智能体聊天机器人)安装英伟达GPU,所有这些应用程序都能通过英伟达GPU加速。因此,当你审视整体支出时,重要的是要考虑到每一个层面。它们都在增长,相互关联但又各不相同。

但令人欣慰的是,它们都能同时在英伟达GPU上运行。由于人工智能模型的质量正在以惊人的速度提升,不同用例中的应用普及率也在不断提高——无论是代码辅助(英伟达自身就大量使用,而且我们并非个例)。我的意思是,Cursor、CliveCode、OpenAI的Codex和GitHub Copilot等应用的组合,是历史上增长最快的应用。而且它们不仅被软件工程师使用,由于可视化编程的出现,公司里的工程师和营销人员也在使用。

公司里的供应链规划人员也在使用。所以我认为这只是一个例子,这样的例子还有很多。无论是Open Evidence在医疗保健领域的工作,还是Runway在数字视频编辑方面的工作,都有很多令人兴奋的初创公司正在利用生成式人工智能和智能体人工智能,而且使用频率也在大幅增加。因此,所有这些指数级增长——更不用说,就在今天,我收到了丹尼斯的信息,他说预训练和后训练仍然非常有效。

Gemini 3利用了缩放定律,在模型性能质量上实现了巨大飞跃。因此,我们看到所有这些指数级增长同时发生。我们应该始终回归基本原则,思考我之前提到的每一个动态:从通用计算到加速计算的转型、生成式人工智能取代传统机器学习,以及当然还有智能体人工智能这一全新类别。

萨拉:下一个问题来自美国银行证券(Bank of America Securities)的维韦克·阿里亚(Vivek Arya),您的线路已接通。

维韦克·阿里亚:谢谢你们接受我的提问。我想了解一下,在5000亿美元的收入目标中,每吉瓦对应的英伟达产品收入是多少?因为我们听到的数字参差不齐,低至每吉瓦250亿美元,高至300亿至400亿美元。所以我想知道,在5000亿美元的目标中,你们假设的每吉瓦功率对应的收入是多少?此外,黄仁勋先生,长期来看,之前提到到2030年数据中心市场规模将达到3至4万亿美元。您认为其中有多少需要供应商融资,有多少可以由大型客户、政府或企业的现金流来支持?谢谢。

黄仁勋:从Ampere到Hopper、从Hopper到Blackwell、再从Blackwell到Rubin,每一代产品中,我们在数据中心业务中的占比都在增加。Hopper一代的每吉瓦对应收入可能在20多亿美元,大概20至250亿美元之间。Blackwell一代(尤其是Grace Blackwell)可能在300亿美元左右,上下浮动。而Rubin一代可能会更高。在每一代产品中,性能都实现了数倍提升,因此客户的总拥有成本也实现了数倍优化。最重要的是,最终你仍然只消耗1吉瓦的电力。

你知道,一座1吉瓦的数据中心消耗的电力就是1吉瓦,因此,你的架构的每瓦性能(效率)至关重要。而且架构的效率无法通过蛮力实现,这是无法强求的。1吉瓦的电力直接转化为收入。你的每瓦性能直接、绝对直接地转化为收入。这就是为什么现在选择正确的架构如此重要。你知道,世界上没有多余的资源可以浪费。因此,我们必须非常注重一个概念,我们称之为协同设计。

涵盖我们的整个技术栈、框架和模型、整个数据中心,甚至电力和冷却系统,都在整个供应链和生态系统中进行优化。因此,每一代产品中,我们的经济贡献都会更大,提供的价值也会更高。但最重要的是,我们每一代产品的每瓦能效都将非常出色。关于客户如何为持续增长融资,这取决于他们自己。我们看到未来有很大的增长机会,而且请记住,如今大多数关注点都集中在超大规模云计算厂商身上。

关于超大规模云计算厂商,有一点很容易被误解:对英伟达GPU的投资不仅能改善他们的通用计算规模、速度和成本(这是第一点),因为摩尔定律的增长确实已经放缓。摩尔定律的核心是降低成本,是计算成本随着时间推移的大幅下降。但这种下降已经放缓。因此,他们需要一种新的方法来继续降低成本。采用英伟达GPU计算确实是最佳方式。第二点是提升他们现有商业模式的收入。你知道,推荐系统是全球超大规模云计算厂商的核心业务。

无论是观看短视频、推荐书籍、推荐购物车中的下一件商品、推荐广告、推荐新闻,所有这些都依赖于推荐系统。互联网上有万亿条内容,他们如何才能在你小小的屏幕上呈现你感兴趣的内容?除非他们拥有非常复杂的推荐系统。而现在,推荐系统已经转向生成式人工智能。所以我刚才提到的前两点——需要投入的数千亿美元资本支出——完全可以通过现金流来支撑。除此之外,就是智能体人工智能的相关支出。

这部分收入是全新的消费需求,但同时也催生了全新的应用程序。我之前提到了一些应用程序,但这些新应用程序也是历史上增长最快的应用程序。好的?所以我认为,一旦人们开始理解表象之下的真实情况——从对资本支出投资的简单看法,到认识到这三大动态——他们就会明白其中的逻辑。最后,请记住,我们刚才谈论的是美国的云服务提供商。每个国家都会为自己的基础设施提供资金。世界上有很多国家,很多行业。

全球大多数行业尚未真正涉足智能体人工智能,但他们即将开始。你知道,我们合作的所有公司——无论是自动驾驶汽车公司、工厂物理人工智能的数字孪生技术公司,还是全球正在建设的大量工厂和仓库。仅数字生物学领域就有大量初创公司获得融资,以加速药物研发。所有这些不同的行业现在都开始参与进来,他们将自行筹集资金。所以,不要只把超大规模云计算厂商视为未来建设的唯一力量。

你必须关注全球市场,关注所有不同的行业,企业计算也将为自己的行业提供资金支持。

萨拉:下一个问题来自梅留斯(Melius)的本·赖茨斯(Ben Reitzes),您的线路已接通。

本·赖茨斯:嘿,非常感谢。黄仁勋先生,我想问问关于现金的规划。考虑到未来几年你们可能会产生约5000亿美元的自由现金流,你们对这些现金有什么规划?回购股票和生态系统投资分别占多少比例?你们如何看待生态系统投资?我认为外界对这些交易的运作方式以及你们的投资标准(比如对Anthropic、OpenAI等公司的投资)存在很多困惑。非常感谢。

黄仁勋:是的,感谢你的问题。当然,现金将用于支持我们的增长。没有任何一家公司能在我们所说的规模上实现增长,同时还能拥有像英伟达这样广泛而深厚的供应链联系。我们的整个客户群之所以能信赖我们,是因为我们已经建立了极具韧性的供应链,而且我们的资产负债表能够支持他们。当我们进行采购时,我们的供应商可以放心。当我们与他们一起制定预测和规划时,他们会认真对待我们。这都归功于我们的资产负债表。我们并不是在凭空猜测产量,我们清楚自己的产量需求。

而且由于他们与我们合作了这么多年,我们的声誉和可信度非常高。因此,要支持这种规模、速度和量级的增长,需要非常强劲的资产负债表。这是第一点。

第二点,当然,我们将继续进行股票回购。但关于投资,这是我们正在做的一项非常重要的工作。到目前为止,我们所做的所有投资都是为了扩大CUDA的影响力,拓展生态系统。

如果你看看我们对OpenAI的投资,当然,我们从2016年就与他们建立了合作关系。我们为OpenAI交付了有史以来第一台人工智能超级计算机。因此,自那以后,我们与OpenAI建立了密切而良好的合作关系。如今,OpenAI所做的一切都运行在英伟达的产品上。无论是他们在云端部署的训练和推理工作负载,都依赖于英伟达,我们很高兴能与他们合作。我们与他们的合作伙伴关系旨在从技术层面进行更深入的合作,以支持他们的加速增长。这是一家增长速度极快的公司。不要只关注新闻报道中的内容。

看看所有与OpenAI相关的生态系统合作伙伴和开发者,他们都在推动产品的应用。与一年前相比,人工智能的质量有了巨大提升。回应的质量非常出色。因此,我们投资OpenAI是为了建立深度合作伙伴关系和联合开发,以扩大我们的生态系统并支持他们的增长。当然,与其放弃我们公司的股份,不如获得他们公司的股份。

我们投资的是一家具有划时代意义的公司,一家我们持有股份的、可能千载难逢的公司。因此,我完全预计这项投资将带来非凡的回报。至于Anthropic,这是Anthropic首次采用英伟达的架构。Anthropic是全球用户数量第二多的人工智能公司,在企业领域表现尤为出色。ClotCode的表现非常好,Clot也非常成功,被全球众多企业采用。

现在,我们有机会与他们建立深度合作伙伴关系,将Claude引入英伟达平台。那么现在我们拥有什么?英伟达的架构——退后一步说,英伟达的平台是全球唯一能运行所有人工智能模型的平台。我们运行OpenAI的模型,运行Anthropic的模型,运行xAI的模型。由于我们与埃隆(Elon)和xAI的深度合作伙伴关系,我们得以将这个机会带给沙特阿拉伯,让Humane也能为xAI提供托管服务。我们运行xAI的模型,运行Gemini的模型,运行Thinking Machines的模型。让我想想,我们还运行哪些模型?我们运行所有模型。

更不用说,我们还运行科学模型、生物学模型、DNA模型、基因模型、化学模型,以及全球各个领域的模型。世界所使用的不仅仅是认知人工智能。人工智能正在影响每个行业。因此,通过我们进行的生态系统投资,我们有能力与世界上一些最优秀、最杰出的公司建立深度技术合作伙伴关系。我们正在扩大生态系统的影响力,并投资于那些将取得巨大成功的公司,通常是那些具有划时代意义的公司。这就是我们的投资理念。

萨拉:下一个问题来自高盛(Goldman Sachs)的吉姆·施耐德(Jim Schneider),您的线路已接通。

吉姆·施耐德:下午好。谢谢你们接受我的提问。过去,你们曾提到约40%的出货量与人工智能推理相关。我想知道,展望明年,你预计这一比例在一年后会达到多少?你能否介绍一下明年预计推出的Rubin CPX产品,并说明你预计它将占据多大的总体潜在市场(TAM)?另外,能否谈谈该特定产品的目标客户应用场景?谢谢。

黄仁勋:CPX是为长上下文类型的工作负载生成而设计的。所谓长上下文,基本上是指在开始生成答案之前,需要读取大量信息。基本上,你知道,长上下文可能是一堆PDF文件、一系列视频、三维图像等等。你必须先吸收这些上下文信息。因此,CPX是专为长上下文类型的工作负载设计的。它的每美元性能非常出色,针对特定用途的性能也非常出色。我差点忘了问题的第一部分。

科莱特·克雷斯:推理业务。

黄仁勋:哦,推理业务。是的。有三大缩放定律同时在发挥作用。第一个缩放定律是预训练,仍然非常有效。第二个是后训练。后训练基本上找到了令人难以置信的算法,可以提高人工智能分解问题和逐步解决问题的能力。后训练正呈指数级增长。基本上,你对模型投入的计算资源越多,它就越智能,越具认知能力。第三个是推理。由于思维链(chain of thought)和推理能力的存在,人工智能在回答问题之前实际上需要先阅读和思考。

这三个因素导致所需的计算量呈指数级增长。我认为很难确切知道在任何特定时间点这个比例会是多少,以及涉及哪些领域。但当然,我们希望推理业务能占据市场的很大一部分。因为如果推理业务规模庞大,那就意味着人们在更多应用中使用它,而且使用频率更高。这是我们都希望看到的。而在这方面,Grace Blackwell比世界上任何其他产品都要先进一个数量级。

第二好的平台是H200,现在很明显,由于我们拥有的MP Link 72纵向扩展网络,GB 300、GB 200和GB 300的性能表现非常出色。正如科莱特在Semianalysis基准测试中提到的,这是有史以来规模最大的单次推理基准测试,GB 200的MP Link 72性能提升了10到15倍。这是一个巨大的进步。其他人需要很长时间才能赶上。我们在这方面的领先优势肯定会持续多年。是的。所以我希望推理业务能成为一项大业务。我们在推理领域的领先优势非常显著。

萨拉:下一个问题来自瑞银(UBS)的蒂莫西·阿库里(Timothy Arcuri),您的线路已接通。

蒂莫西·阿库里:非常感谢。黄仁勋先生,你们的许多客户都在寻求厂用电解决方案,但你最担心的、可能限制你们增长的单一最大瓶颈是什么?是电力供应、融资,还是内存甚至代工厂等其他因素?非常感谢。

黄仁勋:嗯,这些都是问题,也都是制约因素。原因在于,当你以我们这样的速度和规模增长时,怎么可能一帆风顺?英伟达正在做的事情显然是前所未有的。我们创造了一个全新的行业。一方面,我们正在将计算从通用计算和传统计算转向加速计算和人工智能。另一方面,我们创造了一个全新的行业,称为人工智能工厂。

这个理念是,为了运行软件,你需要这些工厂来生成每一个令牌,而不是检索预先创建的信息。因此,我认为整个转型需要非凡的规模。从供应链来看,当然,我们对供应链有更好的可见性和控制力,因为显然我们非常擅长管理供应链。我们与合作了33年的优秀伙伴们一起合作。因此,供应链方面,我们非常有信心。现在看看我们的供应链下游,我们已经与众多涉及土地、电力、厂房建设的企业建立了合作伙伴关系,当然还有融资领域的合作伙伴。这些事情都不容易,但都具有吸引力,而且都是可以解决的问题。

最重要的是,我们必须做好规划。我们向上游供应链和下游供应链进行规划,我们已经建立了大量的合作伙伴关系,因此我们有很多市场渠道。而且非常重要的是,我们的架构必须为我们的客户提供最佳价值。因此,目前来看,我非常有信心英伟达的架构在总拥有成本(TCL)方面表现最佳,在每瓦性能方面表现最佳,因此,对于任何数量的能源输入,我们的架构都能带来最高的收入。

我认为我们成功的速度正在加快——我认为今年到目前为止,我们比去年同期更加成功。你知道,越来越多的客户在探索其他选择后转而选择我们的平台,而不是减少。所以我认为,我这些年来一直告诉你们的所有事情都在成为现实,或者说正变得越来越明显。

萨拉:下一个问题来自伯恩斯坦研究公司(Bernstein Research)的斯泰西·拉斯贡(Stacy Rasgon),您的线路已接通。

斯泰西·拉斯贡:我有几个关于利润率的问题。科莱特,你说明年你们将努力将利润率维持在75%左右。那么,首先,最大的成本增长来自哪里?仅仅是内存,还是其他因素?你们正在采取哪些措施来实现这一目标?比如,成本优化、预先采购和定价策略分别起到多大作用?另外,考虑到收入似乎可能大幅增长,我们应该如何看待明年的运营费用增长?

科莱特·克雷斯:斯泰西。让我先回顾一下我们当前财年的情况。记得今年早些时候,我们表示,通过成本改善和业务结构优化,我们将在本财年末将毛利率提升至75%左右。我们已经实现了这一目标。现在,是时候向大家说明我们的下一步计划,并为第四季度的执行做好准备。目前,关于明年的情况,行业内已知投入成本将上涨。我们的系统绝非易事。

正如我们所考虑的,它包含大量组件,涉及多个不同部分。因此,我们正在将所有这些因素都考虑在内,但我们确实相信,如果我们再次致力于成本改善、周期时间缩短和业务结构优化,我们将努力将毛利率维持在75%左右。这是我们关于毛利率的总体计划。你的第二个问题是关于运营费用的。目前,我们在运营费用方面的目标是,确保我们的工程团队和所有业务团队都能进行创新,为这个市场创造更多、更完善的系统。

如你所知,目前我们有新的架构即将推出,这意味着他们为了实现这一目标而非常忙碌。因此,我们将继续加大投资,在软件、系统和硬件方面进行更多创新。如果黄仁勋先生想补充几句,我会把话筒交给她。是的。

黄仁勋:我认为这说得很对。我想补充的一点是,记住我们会提前很久进行规划、预测和与供应链谈判。我们的供应链伙伴早就知道我们的需求,也早就知道我们的市场需求,而且我们已经与他们合作和谈判了很长时间。因此,最近的增长显然非常显著,但请记住,我们的供应链已经与我们合作了很长时间。

这是一种长期合作关系。因此,在许多情况下,我们已经为自己确保了大量的供应,因为,你知道,显然他们正在与世界上最大的公司合作。而且我们还与他们在财务方面密切合作,确保预测和规划等工作的顺利进行。所以我认为所有这些都对我们非常有利。

萨拉:最后一个问题来自富国银行(Wells Fargo)的亚伦·雷克斯(Aaron Rakers),您的线路已接通。

亚伦·雷克斯:黄仁勋先生,我的问题是关于你们宣布的Anthropic合作协议,以及你们客户的整体广度。我很好奇,您对人工智能专用集成电路(ASIC)或专用芯片在这些架构建设中的作用的看法是否有任何变化?您是否看到——我认为您过去一直坚定地认为,其中一些项目从未真正实现部署。但我很好奇,现在是否已经到了一个转折点,甚至更倾向于仅采用GPU架构?谢谢。

黄仁勋:是的。非常感谢你。我非常感谢这个问题。首先,你不是在与某家公司竞争,而是在与团队竞争。

抱歉,你是在与公司竞争,而公司是由团队组成的。世界上并没有那么多团队能够出色地打造这些极其复杂的产品。你知道,在Hopper和Ampere时代,我们只需要打造一款GPU。这就是加速人工智能系统的定义。但如今,我们必须打造整个机架,打造三种不同类型的交换机——纵向扩展交换机、横向扩展交换机和跨尺度扩展交换机。如今,构建一个计算节点不再只需要一块芯片

由于人工智能需要内存——人工智能以前根本不需要内存,现在它必须记住事情。它所拥有的内存和上下文规模是巨大的。内存架构的影响是惊人的。模型的多样性——从混合专家模型到密集模型、扩散模型、自回归模型,更不用说遵循物理定律的生物学模型——在过去几年中,不同类型模型的数量呈爆炸式增长。

因此,挑战在于问题的复杂性大大提高,人工智能模型的多样性也非常大。这就是我想说的,使我们与众不同的五个因素,如果可以的话。你知道,我想说的第一个使我们与众不同的因素是,我们能够加速这一转型的每个阶段。这是第一阶段。CUDA使我们能够通过CUDA X实现从通用计算到加速计算的转型。我们在生成式人工智能方面表现出色。我们在智能体人工智能方面也表现出色。因此,在这一转型的每个阶段、每个层面,我们都表现出色。你可以投资于一种架构,在各个领域使用它;你可以使用一种架构,而不必担心这三个阶段中工作负载的变化。这是第一点。

第二点,我们在人工智能的每个阶段都表现出色。每个人都知道我们在预训练方面非常出色。显然,我们在后训练方面也非常出色。事实证明,我们在推理方面也非常出色,因为推理真的非常困难。思考怎么可能容易呢?你知道,人们认为推理是一次性的,因此很容易。任何人都可以以这种方式进入市场。但事实证明,这是最难的,因为事实证明,思考是相当困难的。我们在人工智能的每个阶段都表现出色,这是第二点。

第三点是,我们现在是世界上唯一能运行所有人工智能模型的架构。我们能出色地运行所有前沿人工智能模型和开源人工智能模型。我们运行科学模型、生物学模型、机器人模型,运行每一个单一模型。我们是世界上唯一能做到这一点的架构。无论你是自回归模型还是基于扩散模型,我们都能运行。正如我刚才提到的,我们为所有主要平台运行这些模型。所以我们能运行所有模型。

第四点,我想说的是,我们的产品遍布每个云端。开发者喜欢我们的原因是我们几乎无处不在。我们在每个云端都有部署。我们甚至可以为你打造一个小型云端,称为DGX Spark。因此,我们的产品遍布每台计算机——从云端到本地部署,再到机器人系统、边缘设备、个人电脑,应有尽有。一种架构,万物皆可运行。这太不可思议了。

最后一点,这可能是最重要的一点,第五点是,如果你是一家云服务提供商、一家像Humane这样的新公司、一家像CoreWeave、Enscaler、Nebius或OCI这样的新公司,英伟达之所以是你的最佳平台,是因为我们的产品需求非常多样化。我们可以帮助你解决产品需求问题。

这不仅仅是将一个随机的ASIC芯片放入数据中心那么简单。产品需求来自哪里?多样性来自哪里?韧性来自哪里?架构的多功能性来自哪里?能力的多样性来自哪里?英伟达的产品需求非常强劲,我们的生态系统非常庞大。所以这五个因素——加速和转型的每个阶段、人工智能的每个阶段、每个模型、从云端到本地部署的全覆盖,当然,最后,所有这些都带来了强劲的产品需求。

萨拉:谢谢。今天的电话会议到此结束。现在可以挂断电话了。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
仅6株母树长在悬崖上,1公斤价值1040万,最后20克赠送国家博物馆

仅6株母树长在悬崖上,1公斤价值1040万,最后20克赠送国家博物馆

万象硬核本尊
2025-11-17 18:08:00
中国凌晨宣布召见日本大使,用2个字告诉高市,这事不好收场了

中国凌晨宣布召见日本大使,用2个字告诉高市,这事不好收场了

历史求知所
2025-11-19 11:20:03
掘金双杀鹈鹕惊现奇葩一幕:约基奇只差一次失误就能拿到四双

掘金双杀鹈鹕惊现奇葩一幕:约基奇只差一次失误就能拿到四双

姜大叔侃球
2025-11-20 12:13:44
不管卤什么肉,只要放3克它,卤肉出锅十里飘香,肥而不腻

不管卤什么肉,只要放3克它,卤肉出锅十里飘香,肥而不腻

美食格物
2025-11-18 20:35:19
数据!中国围棋2025年大丰收,除LG杯外,5场世界大赛,4场夺冠!

数据!中国围棋2025年大丰收,除LG杯外,5场世界大赛,4场夺冠!

L76号
2025-11-19 16:38:15
越南女子柬埔寨硬核劫囚,9小时全员落网太打脸

越南女子柬埔寨硬核劫囚,9小时全员落网太打脸

冒泡泡的鱼儿
2025-11-20 08:11:59
法乌签署《天空盾牌-2025》协议,法国将向乌克兰交付100架阵风

法乌签署《天空盾牌-2025》协议,法国将向乌克兰交付100架阵风

史政先锋
2025-11-17 22:21:10
薄一波晚年反省,当年不该支持此人上台,他给国家带来大麻烦

薄一波晚年反省,当年不该支持此人上台,他给国家带来大麻烦

扬平说史
2025-11-06 20:22:42
又暴雷!48小时卷走129亿,200万会员血本无归,“传销巨头”凉了

又暴雷!48小时卷走129亿,200万会员血本无归,“传销巨头”凉了

阿器谈史
2025-11-12 17:24:46
朝鲜用不了,巴铁看不上!服役20年退役的洛阳舰,更适合该国海军

朝鲜用不了,巴铁看不上!服役20年退役的洛阳舰,更适合该国海军

青途历史
2025-10-29 20:36:46
烧一赔三!轮到广汽掀桌子,10.48万的埃安i60开卖

烧一赔三!轮到广汽掀桌子,10.48万的埃安i60开卖

超电实验室
2025-11-17 18:25:48
奔驰女司机停车长裙掩护当街大便画面曝光,网友批:不清理吗?

奔驰女司机停车长裙掩护当街大便画面曝光,网友批:不清理吗?

环球趣闻分享
2025-11-19 20:23:57
朱德去世后,中央费尽周折在攀枝花找到一名老妇,帮他完成遗愿

朱德去世后,中央费尽周折在攀枝花找到一名老妇,帮他完成遗愿

丞丞故事汇
2025-11-02 13:43:12
随着樊振东全运夺冠后反遭网暴,彻底揭开体坛最恶心一幕!

随着樊振东全运夺冠后反遭网暴,彻底揭开体坛最恶心一幕!

田先生篮球
2025-11-17 22:11:55
相关方确认:日本进口片,暂缓上映

相关方确认:日本进口片,暂缓上映

新京报
2025-11-18 00:00:45
中日一战不可避免,日本达成一致:解放军若武统,日本定武力介入

中日一战不可避免,日本达成一致:解放军若武统,日本定武力介入

胖福的小木屋
2025-11-20 00:02:51
只待2天!全红婵火速从北京飞回广州,去医院看望梁小静,姐妹情深

只待2天!全红婵火速从北京飞回广州,去医院看望梁小静,姐妹情深

乡野小珥
2025-11-18 07:31:38
65岁图灵奖得主杨立昆官宣离开Meta,12年FAIR时代落幕,投身AI创业!

65岁图灵奖得主杨立昆官宣离开Meta,12年FAIR时代落幕,投身AI创业!

CSDN
2025-11-20 12:28:32
男星林雪辟谣欠债百亿,网友却发现他脸上黑斑变大,面积扩大3倍

男星林雪辟谣欠债百亿,网友却发现他脸上黑斑变大,面积扩大3倍

头号电影院
2025-11-20 12:13:11
罗晋行程曝光!结婚7年很少回家,半年提6次分手,爱与不爱很明显

罗晋行程曝光!结婚7年很少回家,半年提6次分手,爱与不爱很明显

书雁飞史oh
2025-11-19 20:20:32
2025-11-20 12:52:50
财联社 incentive-icons
财联社
以“准确、快速、权威、专业”为新闻准则,为投资者提供专业的投资资讯。
650347文章数 1015644关注度
往期回顾 全部

财经要闻

英伟达财报,超预期

头条要闻

陕西男子用识图能力 帮助警方锁定外逃柬埔寨嫌疑人

头条要闻

陕西男子用识图能力 帮助警方锁定外逃柬埔寨嫌疑人

体育要闻

Faker,何以成为Faker

娱乐要闻

胡彦斌易梦玲恋情曝光,相差16岁

科技要闻

英伟达单季狂揽570亿美元,手握5000亿订单

汽车要闻

一汽丰田发布IT'S TiME 3.0 三款焕新产品同步亮相

态度原创

数码
本地
亲子
艺术
公开课

数码要闻

深入百米水下还能发消息 华为WATCH Ultimate 2非凡探索将发布

本地新闻

第十二届影展携手重庆来福士丨两江交汇,光影共生

亲子要闻

又是上头的一天,人类幼崽成长计划

艺术要闻

陈洪绶:花鸟册二十开

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版