专注AIGC技术的专业社区,关注大语言模型(LLM)的发展和应用落地,聚焦LLM及AI技术的市场研究和开发者生态,欢迎关注!
AI的飞速演进,建立在一个沉重的物理基础之上。
几百万个处理器、几十万公里的线缆、工业级冷却系统以及堪比中型国家的庞大耗电量。
当前关于AI投资是否有泡沫的讨论,大多局限于需求端,大家都在追问未来的应用收益能否填补今天的巨额开销。
AI基础设施建设的资金规模,并不是一个固定不变的绝对数值,它就像一个充满弹性的气球,极度依赖少数几个关键的底层假设。
高盛全球研究院发布了一份报告。
![]()
带你穿透投资迷雾,看清决定这笔天文数字规模的四个核心变量。
理解这些基础设施的物理复杂性与建设逻辑,能帮助我们更理性地审视这场波澜壮阔的资本支出热潮。
基于当前的芯片销售预期,他们建立了一个基准模型。
以英伟达未来的数据中心收入预期作为参考,借此推算数据中心、电力及配套设施的整体需求。
这种方法不去主观预测AI的市场需求,只提供一个连贯的参照系,用来测试不同的供应端假设如何放大或缩小整体投资规模。
基准模型显示,2026年AI的CapEx(资本支出)将达到7650亿美元,到2031年这一数字将攀升至1.6万亿美元。
![]()
如今的顶尖系统把几十个处理器塞进同一个机柜,用高速背板连接,再跨越不同厂区进行海量线缆并网。
这些系统运转时产生惊人的热量,必须搭配工业级液冷设备,并且全部安置在配备专属供电和备用系统的专业设施内。
这些环节层层叠加,估算2026至2031年全球AI基础设施的累计投资基准预期总计约7.6万亿美元。
决定这7.6万亿美元最终是收缩还是膨胀,取决于算力芯片的寿命、数据中心的建造成本、芯片架构的搭配比例,以及现实世界中物理瓶颈造成的延期效应。
算力芯片的经济寿命
AI加速器构成了基础设施的算力引擎,大型数据中心里往往存放着数十万个这样的芯片。
这些设备拥有自己的物理生命周期与经济生命周期,行业内通常预估为4到6年。
芯片的寿命期限一面受到物理损耗的制约,另一面受到经济淘汰的催促,每一代新芯片的问世都会带来性能的跨越式提升。
算力芯片的经济寿命,正是决定AI基础设施累计投资规模最具影响力的单一变量。
建筑物通常按20年折旧,电力设施能运转25年以上,AI芯片的更新换代周期要短得多。高昂的单价加上极快的更迭频率,让芯片的替换节奏变得至关重要。
这里面存在一个核心矛盾。
新一代AI芯片在单位成本性能上突飞猛进,促使企业想方设法加快硬件淘汰速度,各种新兴的AI任务又让老旧芯片依然能发挥余热。
英伟达史无前例的年度发布节奏进一步加剧了这种矛盾,每一代新架构带来的都是能力维度的跃迁,许多分析师开始怀疑,4到6年的常规折旧期,已经无法准确反映这些底层资产的真实价值。
芯片在AI基础设施投资中占比极大,寿命预期的微小调整,会引发累计支出的剧烈震荡。把平均经济寿命从4年延长到6年,可以在既定周期内大幅减少替换次数,缩短寿命则会产生相反的效果。
这种差异在宏观尺度上会转化为资金需求的巨大落差。
硅芯片使用寿命从3年改为7年对年计算折旧的影响:
![]()
我们可以算一笔账,购买一块5万美元的加速器并分5年折旧,每年的折旧费用是1万美元。
新一代芯片突然提供了好得多的性价比,导致旧芯片在折旧期满前就失去了运转的经济性,运营方就得白白承担这项不再创造等值回报的资产成本。
当这种动态乘以几十万台设备时,就会对整个AI生态系统的经济基础构成实质性威胁。
账面上的折旧可能显得有条不紊,实际运营中的技术淘汰却往往来得极其突然。
一种分层部署模式的兴起,可能有助于延长芯片的使用寿命。除开那些对性能要求严苛的前沿模型训练,市场上还有大量适合用成熟芯片处理的任务,例如特定的推理场景、边缘计算以及合成数据生成。
目前市场上A100和H100这些相对较旧的设备,其租赁价格依然坚挺,侧面印证了它们5到6年的使用寿命具备合理性。
这反映了当前模型开发商正处于极度的算力饥渴中,也证明了芯片在AI时代具有持久的剩余价值。
数据中心的成本跃升
所有的AI加速器都需要安放在特定的物理建筑内,依赖精密的配电系统和散热网络。
AI计算任务把功率密度推向了全新高度,系统集成的深度也超越以往,在AI时代建设一座数据中心的成本相比过去显著攀升。
以前的云计算数据中心追求模块化叠加,现在的AI数据中心运转在极高的机柜密度下,需要先进的液冷方案、更严苛的供电容错率和更完善的冗余设计。
计算、内存、网络、散热和供电现在必须进行协同设计,任何一个局部故障都可能引发更严重的连锁反应,整个数据中心越来越像是一台巨大且精密耦合的超级计算机。
![]()
上一个十年的云数据中心设计寿命长达15到20年。AI系统设计的迭代速度实在太快,未来数据中心的需求轨迹将完全不同,它们不仅与传统机房大相径庭,甚至连两年前刚建好的早期AI机房也可能很快落伍。
设计的变化直接体现在每兆瓦的资金成本上,传统超大规模云设施的建设成本大约在每兆瓦1000万美元,当前市场上的下一代AI数据中心,成本已经来到1500万至2000万美元区间,随着密度要求不断提高,这个数字还有上行空间。
![]()
数据中心的建设规模庞大,每兆瓦成本的微小变动会迅速积累,成为拉动整体支出的核心引擎。
成本只是硬币的一面,架构更迭的速度让评估这些长期资产的风险变得异常困难。
不到两年前设计的过渡性机房,面对下一代尖端芯片恐怖的供电和散热需求时,很可能面临配置不足的尴尬境地。
当建筑本身的设计标准每隔两三年就要面临重估,全新的散热概念或供电模式随时可能颠覆既有规则。
架构之争与建设延期
不同架构的芯片混合比例,构成了影响总成本的第三个杠杆。
绝大多数AI算力由英伟达的GPU提供,出于成本和竞争考量,越来越多的计算任务开始向ASIC(专用集成电路)等定制化芯片转移。
ASIC牺牲了通用灵活性来换取极致的效率,能提供更低的单位计算成本和更优秀的能耗比。
算力任务向定制化芯片转移能否降低整体建设开支,完全取决于计算需求的弹性。弹性决定了当算力变便宜时,买家是顺势削减预算,还是保持预算去购买更多算力。
假设企业只有固定不变的计算需求,只训练几个特定的模型,使用更便宜的芯片就能节省支出。在缺乏弹性的需求场景下,芯片种类的选择确实能改变总体投资的规模。
一旦需求具备弹性,成本降低只会解锁更多的新鲜玩法。
更便宜的算力催生出体积更大的模型、更漫长的训练周期和更广泛的商业部署,整体的基础设施占地面积和投入金额可能基本持平。
在这种情况下,芯片选择改变的是利润分配格局,资金从通用芯片供应商手中流向了云服务商和终端用户。
英伟达在其数据中心产品上维持着约75%的毛利率,远超其他替代方案,巨大的利润差额自然会驱使买家去探索更多的硬件选择。
高盛构建的基准模型,倾向于弹性场景,芯片和架构的混合演进主要改变资金流向的内部结构,并不大幅削减建设资金的绝对总量。
随着未来推理任务占据主导,或者增加算力带来的收益边际递减,转向便宜的芯片确实可能抑制投资总额。这是一种可能到来的未来,并不适用当前狂飙突进的建设阶段。
项目延期制约着资金转化为实际算力。电网并网排队、施工许可审批、专业劳动力短缺,变压器、开关柜和冷却系统等关键设备的漫长交货期,都在不断拉大从资金获批到数据中心点亮之间的等待窗口。
延期并没有改变每兆瓦建筑的造价。它的作用机制在于拉长建设周期,抬高协调成本。
在常规情况下,物理瓶颈只会让部署速度慢下来,各类项目可能出现进度滑坡或为了绕开障碍而产生重复投资,最终建成的基础设施总量并没有缩水,仅仅是一个时间管理问题。
严重的延期会动摇整个市场的投资信心。当足够多的项目同时停滞,市场的注意力就会从供应端转移到需求端,大家会质疑未来的商业化收入,能否及时兑现以填补当前的资本窟窿。
在这个压力测试场景下,供应端的物理摩擦制造了需求端的恐慌,导致后续的投资计划被搁置或大幅缩减。
整个生态系统里的每一环都会感受到延期的阵痛,信贷机构面临久期风险,包销商受困于遥遥无期的交付时间表,依赖公开市场融资的企业,必须在缺乏回报的情况下苦苦维持投资者的耐心。
认清噪音与真实周期
AI生态系统里每天都在发生剧烈变动,并不是所有抢占新闻头条的事件,都能真正改变中期支出的基本盘。
搞懂哪些因素只改变短期节奏,哪些因素真正决定长远规模,是理清行业逻辑的关键。
训练与推理的比例倾斜、单芯片内存的增长与价格波动、自建发电与电网供电的权衡,这些都是经常被提及的热门话题。
训练与推理的占比主要改变资金回笼的节点。推理任务占比升高,能让固定的资本更快转化为实际的使用费,加速商业变现。
长期的训练主导模式会拉长投资回报周期,企业需要在获得广泛收入前持续砸钱。这两种模式只是改变了基础设施自我造血的速度,对建设总开销的影响微乎其微。
芯片内存不断提升已经成为行业共识。不断增长的内存容量是为了应对更长的上下文窗口和更复杂的Agent(智能体)任务。
无论单芯片内存是符合预期还是产生25%的上下浮动,对7.6万亿美元的总盘子影响都很有限。内存价格的短期剧烈波动属于供应链在应对历史级爆单时的正常失衡,随着产能扩充和良率提升,价格终归会回到合理区间。
光通信、存储和封装等其他关键部件,也大概率会经历这种短期价格阵痛。
放弃电网转向自建发电确实需要更高的前期投入,设备的利用率往往也拼不过电网级的共享资源。
相对于极其昂贵的计算芯片和液冷机房,电力设施在整体基础设施账单中的占比相对较小。大范围采用自建发电会对电力行业的定价权产生影响,但不足以撼动整个AI生态系统的资金总量预估。
支撑当前AI野心的资金规模,并不是一成不变的刻板教条,它紧紧依附在那些关于建筑标准、芯片更迭和建设节奏的底层假设之上。
随着技术不断突破创新,我们对所需资金的预判也会随时修正。
技术创新始终是最大的未知变量。
目前的投资预估建立在现有的技术路径上,如果出现一种能实质性降低训练和推理计算复杂度的颠覆式创新,整个投资版图都会随之震荡。
2025年1月的DeepSeek事件就是一个绝佳的观察样本,它向市场展示了应对技术范式跃迁时可能产生的剧烈反应。投资框架必须时刻对这类底层变量保持高度敏锐。
报告整体分析,建立在一种循环逻辑上。
我们在计算各种物理、制度和经济约束,担忧万亿资本如何平稳落地。
但只要整个行业能够克服这些现实阻碍,把机房盖起来,把瓶颈打通,把算力成本打下来,科技演进的历史规律就会再次应验。
基础设施的完善不会带来算力过剩,它只会激发出大量在过去高昂成本下根本无法生存的全新应用场景。
今天这些看似铺张的基础设施建设,恰恰是确保我们在明天面对更大规模技术红利时,不至于捉襟见肘的最佳筹码。
参考资料:
https://www.goldmansachs.com/insights/articles/tracking-trillions-the-assumptions-shaping-scale-of-the-ai-build-out
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.