![]()
1. 云厂商 AI 相关服务涨价情况
亚马逊云(AWS)AI 与 GPU 相关云服务涨价:涉及 H100、H200、B200的价格涨幅约 15%,部分实例从每小时 34.6 块涨到 39 块,打破 AWS 20年价格只降不涨的情况。
阿里云涨价与降价并行:AI 算力相关云服务跟随涨价,但为吸引中小客户和全球扩张,基础云服务(如 CPU 实例、对象存储)处于降价周期,海外节点 ECS 实例核心价格降 10%到 12%。
AI 相关 PaaS/SaaS 业务的涨价预期:
– AI Agent 相关云服务(如 Sandbox 沙盒业务):25 年年底适配效果良好,26 年将迎来涨价,主要带动 CPU 类云服务涨价。
– 涨价幅度差异:GPU 云服务涨幅约 15%,AI Agent 相关云服务(CPU 类)预估涨幅 5%到 8%,因 CPU 初始投入成本涨幅低于GPU,且可通过利旧封装(如 Firecracker MicroVM、Docker)复用资源。
2. 涨价持续性及驱动因素
涨价将持续:核心驱动因素包括:
– 硬件迭代压力:AI 芯片寿命仅 2-4 年,短于 GPU/CPU 整体寿命周期,需持续投入巨额设备更新并承担昂贵折旧与融资压力。
– 能源与基建约束:AI 算力资源池需长期稀缺资源(如 4.5GW 电力供应),需通过提高购买成本获取。
– 算力需求结构变化:算力从一次性密集训练转向高频持续推理,数亿用户高频使用导致推理型算力指数级增长。
– 供应链竞争与囤货:厂商为防止竞争对手获取最新 GPU/芯片,一次性购买至 2026 年底,加剧供需失衡。
– 上游存储芯片短缺:长江存储、鑫芯等国内厂商供货不足,扩产需到 2027 年中旬缓解;美光、希捷等海外存储芯片也存在短缺。
3. AI 时代云计算技术架构变化
网络架构:光进铜退:
– 英伟达 GB200 NVL72 机柜全部使用光缆,光纤模块从 100G 升级至400G、1.6T 硅光模块,为超大规模 GPU 集群并行通讯提供低延迟、高带宽支撑。
– 采用多芯光缆/空芯光纤,通过多根光纤或抽空空气提升传输速度与容量,降低损耗,实现超高算力互联。
业务应用端:AI Agent 沙盒与 Micro VM:
– 催生 Agent Runtime 实时运行,需同时运行数千/数万个 Micro VM或 Container,导致 CPU 使用量陡增。
– 云厂商需部署海量毫秒级启动的轻量化沙盒(如开源 FirecrackerMicro VM),沙盒数量呈指数级增长,CPU 角色正在回升。
存储技术升级:
– SSD QLC:虽写速率低于 TLC,但因低成本用于 AI 数据湖、训练任务及 Checkpoint。
– 热辅助磁盘:单盘容量突破 30GB 以上(传统为 10GB/8GB),提升硬盘容量与性价比。
能源与温控技术:
– SOFC 技术:Bloom Energy 的固体燃料电池实现数据中心快速部署,模块化添加且无污染,可替代涡轮燃气轮机提供清洁电能。
– 液冷技术:机架密度突破后,传统风冷无法满足 30kW-100kW 散热需求,液冷成为 AIDC 建设的必须选项。
4. 上游供应链涨价传导与预期
已涨价领域:GPU、电力、液冷、芯片(美光 HBM 内存 2025 年 10 月涨价20%-30%)。
待涨价领域:
– CPU:2026 年为 AI Agent 元年,Sandbox 类业务线性提升 CPU 使用量,将推动 CPU 涨价。
– 网络设备:分布式数据中心(如 10 个 0.1GW 小型数据中心替代 1个 1.2GW 大型数据中心)带动网络设备、光纤模块、硅光模块需求上涨。
涨价传导节奏:
– 目前 PaaS/SaaS 层暂未涨价,因非 AI 业务仍有冗余可复用,增量涨价内容未传导至上层。
– 快速 SSD 存储业务因芯片拿货成本高将适当涨价,但幅度低于 GPU(5%-8%以内)。
– 半年到一年维度,若 OpenAI、Google 等大型 LLM 厂商盈利(2026年预计扭亏为盈),或 AI Agent 领域仅剩 1-2 家大型厂商时,成本将传导至业务端并推动涨价。
5. 国内云计算竞争格局
传统巨头:阿里云、华为云、腾讯云,以大厂背书绑定国产算力方案发力。
运营商:天翼云、移动云、联通云,凭借东数西算政策优势与国企网络优势,获取大量政府/政企客户份额。
AI 算力新势力:火山引擎(字节跳动),从 To C 端打入 To B 端,打通模型算力、AI 流程与业务应用。
垂直私有云领域:金山云等,聚焦金融、政务等特定行业,通过混合云模式避开公有云红海。
竞争核心:不再比拼服务器数量,而是模型生态优劣;无现象级大模型应用的云厂商面临管道化风险。
6. DRAM/NAND 涨价与云厂商承受能力
AI 算力新势力:火山引擎(字节跳动),从 To C 端打入 To B 端,打通模型算力、AI 流程与业务应用。
垂直私有云领域:金山云等,聚焦金融、政务等特定行业,通过混合云模式避开公有云红海。
竞争核心:不再比拼服务器数量,而是模型生态优劣;无现象级大模型应用的云厂商面临管道化风险。
– DDR5 价格过去 8 个月涨 50%,Q1 预期再涨 45%;云厂商愿意高价
囤货(甚至接受再涨 50%-200%),以金钱换时间获取硬件资源。
7. 云厂商涨价对利润率的影响
涨价目标:需在 AI 设备 2-4 年生命周期内实现盈利,涨价后利润率将改善,不会像 Oracle 仅追求份额而忽视成本回本周期。
实际涨价幅度:以 B200 GPU 为例,对外报价每小时 8 美金,涨价 15%后约 10 美金每小时,但根据项目大小与租赁周期可提供最低 4 折折扣。
中小客户敏感度:中小客户对价格敏感,若租赁成本高于自建 5 年数据中心成本,会选择自建或二线品牌(如 CoreWeave)。
Q&A
Q: 亚马逊云和国内其他云厂商目前的涨价情况如何?
A: 亚马逊云(AWS)的涨价主要针对与 AI 及 GPU 相关的业务,包括 H100、H200、B200 等 GPU 实例,涨幅约 15%,例如部分实例从每小时 34.6 元涨至 39元,打破了其 20 年价格只降不涨的传统。阿里云的涨价同样由 AI 算力需求驱动,但并非所有服务都涨价:基础云服务(如 CPU 实例、对象存储)仍处于降价周期,部分海外节点的 ECS 实例核心价格降幅达 10%-12%,以吸引中小客户和推进全球扩张。
Q: 除 GPU 云服务外,AI 相关的 PaaS/SaaS 业务是否有涨价预期?
A: 与 AI 相关的 PaaS/SaaS 业务存在涨价预期。2025 年底 AI Agent 相关云服务(如 Sandbox 沙盒业务)的适配效果良好;涨价时会提升服务体验,如将网络互联速度从100G 每秒升级至 400G 每秒硅光模块。 传统通用服务器涨价暂未传导至 SaaS、PaaS,因当前 PaaS、SaaS 层非 AI 业务仍有较大冗余可复用。
Q: 上游硬件中除已涨价的 GPU、CPU、存储外,未来还有哪些可能涨价?
A: 已涨价的上游硬件包括电力、液冷、GPU、芯片。 未来可能涨价的方向:1.CPU:2026 年为 AI Agent 元年,其 Sandbox 类使用量线性提升将推动 CPU 涨价,且涨价已在进行中; 2.网络设备、光纤模块、硅光模块:分布式数据中心(2026 年 AI 数据中心发展方向,如建设 10 个 0.1GW 小型数据中心并联)将带动相关需求整体上涨; 3.GPU:分布式数据中心建设也会带来 GPU 需求上升。
Q: GPU、CPU、存储及待涨的网络通信等成本上升,在半年到一年维度是否会传导至业务端涨价?还是由云计算公司承担成本?
A: 成本传导取决于下游应用盈利情况:1. 大型 LLM 厂商盈利带动涨价:OpenAI、Google 等大型 LLM 厂商 2026 年将扭亏为盈(如 OpenAI、Google Gemini 对用户收费 30-100 美金/月),AI 算力云厂商因此有底气涨价; 2.AI Agent 应用盈利后传导:小型云原生 AI Agent 厂商目前处于免费竞争期,待 2026 年内仅剩 1-2 家大型 AI Agent 型 App 且实现盈利后,将开始收费涨价; 3.国内滞后于国外:国内LLM(如豆包、通义千问)及 AI Agent 目前仍处免费阶段,涨价节奏滞后于国外。
Q: 国内云行业的竞争格局是怎样的?传统巨头、运营商、AI 新势力及垂直私有云领域的企业分别有哪些特点?
A: 国内云市场竞争较国外更激烈,且竞争核心已从服务器数量转向模型生态。2026 年国内云市场由三足鼎立演变为多极格局:1. 传统巨头(阿里云、华为云、腾讯云):以大厂背书,绑定国产算力方案发力;2. 运营商(天翼云、移动云、联通云):凭借东数西算政策优势及国企网络优势,在政府、政企客户中获取高份额;3. AI 算力新势力(如火山引擎/字节跳动):将 To C 端优势延伸至 To B 端,打通模型算力、AI 流程及业务应用;4. 垂直私有云领域(如金山云):深耕金融、政务等特定行业,以混合云模式避开公有云红海。
Q: DRAM 配置比例快速提升的原因及对性能的边际提升体现在哪里?
A: DRAM 配置比例提升主要源于高带宽内存(HBM)技术的应用:1. 技术优势:HBM 协议提供高带宽,在 AI 运行时,算力速度优于低阶普通内存;2. 性能提升:基于 HBM 的内存可提升训练初始化效率,如 NVL72 机柜等集群均采用 HBM 内存,性能级别更高;3. 市场现状:HBM 技术主要掌握在美光等美国厂商手中,美光在 2026 年 10 月已涨价 20%-30%,后期因产能及囤货导致供需失衡,预计还会有一波涨价;国内长江存储、长鑫存储需扩充产能缓解缺货,但产能扩充非短期可实现。
Q: 云厂商对 DRAM 和 NAND 涨价的承受能力如何?未来涨价空间有多大?
A: 云厂商对内存涨价的承受能力较强,核心逻辑为“以金钱换时间”:1. 供给端:Google 等厂商囤货导致供需失衡,Oracle 等企业拿不到货;2. 成本对比:相较于GPU(如 NVL72 机柜初始成本 300 万美金,涨价后达 350 万美金),DRAM 初始成本更低,厂商更愿意高价购买;3. 涨价空间:DDR5 价格过去八个月已涨50%,市场预期 Q1 再涨 45%,专家认为涨价至 150%、200%均有可能,关键在于厂商是否愿意为解决燃眉之急支付更高成本。
Q: 云厂商涨价的主要原因是什么?是否包含成本传导、超额传导部分?
A: 云厂商涨价的核心原因包括:1. AI 算力业务前期资本开支大,回本周期短(2-4 年),需通过涨价平衡利润,避免像 Oracle 那样因无节制投入导致难以持续;2.大语言模型厂商今年开始追求盈利,行业节点共同促成涨价;3. 硬件迭代压力。涨价包含成本传导及利润平衡需求,AWS 注重利润率与回本周期的平衡,不会无节制投入,涨价幅度相对温和。
Q: 涨价后公司的利润率是否会改善?
A: 涨价后利润率会改善,因为涨价包含成本传导及利润平衡的需求,需在 AI 设备4 年生命周期内实现盈利,而非仅追求市场份额的政策导向。
Q: 单位算力价格的涨价幅度大概是多少?能否以具体产品为例说明?
A: 以 B200 GPU 为例,涨价前单个 B200 GPU 每小时报价为 8 美金,涨价幅度为15%,涨价后单价不到 10 美金每小时;NVL72 配置含 8 个 B200 GPU,涨价前每小时报价 64 美金,涨价 15%后对应单价同步上调。
Q: 中小客户对涨价的承受力如何?是否会抑制需求?
A: 中小客户对价格非常敏感,涨价可能导致部分中小客户选择自建数据中心(若自建 5 年成本低于租赁)或转向二线算力品牌(如 CoreWeave),存在需求抑制的可能性。
![]()
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.