本文仅供参考。2026年2月,全球AI行业发生了一件标志性事件。 全球最大的AI模型API聚合平台OpenRouter数据显示,在2月9日至15日这一周,中国AI模型的周调用量达到4.12万亿Token,首次超过了同期美国模型的2.94万亿Token。 紧接着的一周,中国模型的调用量进一步冲高至5.16万亿Token,三周累计增长127%,而同期美国模型的调用量则回落至2.7万亿Token。
![]()
关键的是,在这个平台的全球调用量排名前五的模型中,有四款来自中国厂商,分别是MiniMax的M2.5、月之暗面的Kimi K2.5、智谱的GLM-5以及DeepSeek的V3.2。 这四款模型合计贡献了前五名总调用量的85.7%。 OpenRouter平台的用户以海外开发者为主,其中美国用户占比高达47.17%,而中国开发者仅占6.01%。 这意味着,中国AI模型正在获得全球市场,尤其是美国开发者的真实认可。
Token是AI模型处理文本的基本单位,调用量直接反映了模型的实际使用强度和商业价值。 中国模型的这次反超,并非依赖单一产品。 MiniMax于2月13日发布的M2.5模型,上线不足一周就登顶周调用量榜首。 月之暗面在1月底推出的Kimi K2.5模型,凭借支持多达100个智能体并行工作的能力,实现了调用量的连续跳涨。 智谱的GLM-5模型上线次周调用量便突破0.8万亿Token。 多家厂商的集中发力,形成了集群式增长的态势。
成本优势是中国模型快速吸引全球开发者的重要因素。 在OpenRouter平台上,MiniMax M2.5与智谱GLM-5的输入价格均为每百万Token 0.3美元。 而海外对标产品,如Claude Opus 4.6,同类价格高达每百万Token 5美元,差距超过16倍。 这种极致的性价比,让全球的中小开发者和创业公司有了更经济的选择。
中国模型调用量的爆发,直接点燃了背后AI算力的需求。 几乎在同一时间,算力租赁市场迎来了全面涨价。 2026年2月,国内多家头部算力服务商相继宣布调价。 云计算服务商优刻得发布公告,宣布自3月1日起对全线产品与服务进行价格上浮调整,涨幅在20%至30%之间。 大位科技的子公司森华易腾,其张北机房的GPU租赁价格上调了20%,并且机房已经处于满负荷运行状态。 智谱AI也对GLM Coding Plan套餐进行了结构性调整,整体涨幅从30%起。
这轮涨价并非个别现象,而是行业性的普涨。 高端GPU算力成为涨价的核心,英伟达的H100、H200等顶级算力卡,租赁价格涨幅达到20%至30%,部分甚至达到40%。 市场呈现出“高端紧缺、低端分化”的格局,并非所有算力都值钱,只有能支撑大模型训练与推理的高端GPU算力,才具有稀缺溢价。
市场反馈迅速而直接。 在优刻得宣布涨价后的2月12日,其股价高开高走,收涨20%。 算力租赁板块整体走强,多只概念股涨停。 行业数据显示,2026年2月,全球AI算力租赁市场价格指数单月上涨5.2%,创下历史新高。 这场涨价潮甚至打破了云计算行业延续近二十年的“价格只降不升”的潜规则。 全球云计算巨头亚马逊云科技在1月23日宣布,对其面向大模型训练的EC2机器学习容量块实施约15%的价格上调,这是AWS约20年来的首次涨价。
![]()
算力租赁,简单来说,就是企业或开发者无需自己购买昂贵的GPU服务器,而是像租房一样,按小时或按任务量租用第三方提供的计算资源。 它降低了AI应用的门槛,让中小企业也能用得起大模型算力。 根据中研普华产业研究院的预测,2026年中国算力租赁的潜在收入市场规模有望达到2600亿元,且年增速保持在20%以上。
那么,为什么算力租赁会在2026年2月这个时间点突然爆发? 首先是需求的指数级增长。 AI大模型的发展正从生成式走向代理式。 春节期间,腾讯、阿里等厂商的“红包大战”极大地提升了AI应用的渗透率,带来了用户量的激增。 更重要的是,智能体的广泛应用,使得单次任务所需的推理次数呈指数级上升。 据行业估算,在智能体场景下,单用户的Token消耗量是普通聊天场景的10倍至50倍。 AI推理需求已经达到训练需求的5到10倍,算力需求进入了“训练+推理”双轮驱动的新模式。
其次是供给的严重短缺。 高端GPU的产能全面向AI倾斜,交付周期大幅拉长。 英伟达H100的订单已经排到了2027年第一季度。 同时,硬件采购成本全面上涨。 有业内人士透露,如今购买的服务器价格比2025年初涨了30%左右。 电力、土地、散热等基础设施成本也在持续上升。 这些成本压力最终传导到了租赁价格上。
最后是行业模式的转变。 云计算行业正从简单的“资源出租”向更复杂的“能力服务”转型。 算力不再仅仅是可计量的硬件资源,而是包含了智能调度、弹性计费、多租户隔离、跨地域分发等软件能力的综合服务。 价格调整反映了这种价值提升。
在这场算力浪潮中,多个产业链环节正在受益。 首先是数据中心与算力基础设施。 算力租赁的物理载体是高性能的数据中心。 无论是训练千亿参数的大模型,还是支撑高并发的API调用,都离不开低延迟、高密度、高可靠性的机房资源和电力保障。 在“东数西算”工程的推进下,具备规模化、绿色化优势的数据中心资源变得愈发稀缺。
其次是算力调度与服务平台。 仅有硬件是远远不够的。 真正的算力租赁,需要智能调度系统来整合底层的GPU资源,向上提供标准化的API接口。 这些平台成为连接算力供需双方的关键枢纽。 它们通过优化资源利用效率,在涨价周期中获得了更大的话语权和利润空间。
第三是国产算力生态链。 OpenRouter的数据显示,海外开发者主动选择中国模型,背后是对其性能与性价比的认可。 这给国产算力芯片、服务器和软件栈带来了发展机遇。 构建从芯片到应用的全栈国产算力体系,正在从备选方案走向主流选择。
具体的市场表现印证了这一点。 在北京,一家电脑设备租赁企业的负责人表示,从2025年下半年开始,高性能的GPU服务器就出现了“上架即秒光”的情况,部分设备的流转周期缩短到了3到6个月。 市场的普遍反馈是,现在只要有算力服务器,基本不愁租。 很多原本计划自建算力的AI相关企业,因为硬件价格波动太大,转而选择租赁算力以规避风险。
行业巨头也用真金白银投下了信任票。 2026年1月26日,英伟达宣布向美国的AI云端运算企业CoreWeave投资20亿美元,以加速其在2030年前增加超过5GW AI计算能力的进程。 CoreWeave的核心业务正是GPU算力租赁服务。
市场的火爆也直接反映在上市公司的业绩和股价上。 鸿博股份在2025年上半年实现净利润扭亏为盈,主要得益于其子公司北京英博数科的算力项目验收完成。 中贝通信2025年上半年的智算业务收入达到2.97亿元,同比增长了498.21%。 这些公司都在加速布局智算中心,规划建设万卡级的算力集群。
与此同时,液冷、高带宽内存、光模块等配套产业也迎来了需求增长。 因为单张高端GPU芯片的功耗已经突破1000瓦,传统的风冷技术走到了物理极限,液冷成为必选项。 高盛预测,全球AI服务器冷却市场将从2024年的12亿美元增长至2027年的152亿美元。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.