最近 AI 赛道最热的话题之一,莫过于搭建一座 AI 数据中心需要投入多少成本?答案直接刷新认知:单座 AI 数据中心的造价高达 600 亿美元。
更让人焦虑的是,AI 基础设施的用电增速是全球平均水平的 5 倍。钱、电力、芯片,这三大核心难题正把不少玩家逼到墙角。这场由硅谷 101 举办的数据中心主题论坛,就专门拆解了这些扎心的现实。
![]()
【不是 GPU 不够,是两条赛道卡脖子】
GMI Cloud CEO Alexe 在论坛上给出了一个颠覆认知的结论。现在 GPU 根本不是瓶颈,真正卡脖子的是两个东西。一是 InfiniBand,当前等待周期长达 8 个月;二是电力,紧张程度远超多数人的想象。InfiniBand 是 AI 数据中心里的 “高速数据公路”,负责连接 GPU、服务器和存储设备,它的供应链紧张程度直接决定了算力网络的搭建速度。
而电力的缺口则更为直观,不少地区的电力审批流程缓慢,项目落地难度极大。需求端的压力还在持续上涨,融资端也出现了新变化。Alexe 提到,大型数据中心项目的融资需要拆分不同批次,逐步完成整体资金落地,以应对不确定性风险。
![]()
【电力不是缺,是送不到】
拥有 40 多年供电从业经验的华丰集团 CTO Harsh Jere 提出了一个关键观点。电力不是没有,而是送不到。美国多个州的电网接入排队时间已经长达 5—6 年,传统电网的供给速度根本赶不上 AI 数据中心的建设节奏。为此他提出了BYOP 自带电力战略,数据中心正在从依赖电网接入,转向自主保障电力供应。
目前 AI 数据中心的表后供电方案有很多,包括燃气轮机、SOFC、核电、新能源等,但单一方案根本无法满足需求,必须采用混合架构。华丰董事长 David 徐进一步解释,混合架构的优势在于兼顾可靠性和灵活性。比如燃气轮机可以作为应急供电保障,核电提供稳定的基础电力,新能源则能降低长期运营成本,不同方案搭配才能适配不同场景的电力需求。
![]()
【被遗忘的两个隐形瓶颈】
Franchise Capital 的 Christina 指出,当前算力赛道的定价权牢牢掌握在三个环节手中。分别是 HBM 内存、先进制程晶圆厂和光器件。目前主流内存厂商的库存全部售罄,大型科技公司 2026 年将有 30% 的资本支出流向内存领域,这在历史上从未出现过。还有一个被严重忽视的瓶颈,就是缺失的软件优化层。
Ziflow AI 的智冰萧博士提到,就算堆再多 GPU,没有跨异构组件的编排层,也无法发挥最大效能。这也是英伟达收购 Grok 的核心逻辑,老黄看重的正是 LPU 在推理解码上的高效性,能解决跨组件协同的痛点。
![]()
【狂热下的冷思考】
论坛上嘉宾还吐槽了一个有趣的现象:做鞋的品牌 Albert 居然改行卖 GPU,直接反映出当前 AI 算力赛道的狂热。不少玩家盲目涌入,却忽略了背后的重重门槛。从资金筹备到电力获取,从芯片供应链到软件优化,每一个环节都藏着看不见的竞争。
AI 数据中心的战争早已打响,从资金到电力,从芯片到软件,每一个环节都决定了玩家能否在赛道中站稳脚跟。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.