迈入2026年,大模型在我们生活中的应用已经无处不在。
当你坐进汽车,只需随口一问,智能座舱系统便能为你规划出最优路线;又或者当你打开政务App,只要点击几下就能轻松获得一份定制化的办事指南……
这些每天发生在我们身边的事,似乎大家都已经司空见惯。但越来越多的大模型应用正像水电能一样,悄然流淌在金融、家居、出行与城市治理的毛细血管中,智能真正实现了无处不在、无时不在。
强者恒强时代,阿里云千问拿下增速与市占率双料冠军
日前,权威国际市场调研机构沙利文(Frost & Sullivan)发布了《中国GenAI市场洞察:企业级大模型调用全景研究》报告。报告显示——2025年下半年,中国企业级大模型日均调用量飙升至37.0万亿tokens,较上半年的10.2万亿增长263%,头部效应也愈发明显。
![]()
排名第一的阿里云千问大模型,其日消耗占比高达32.1%,远超豆包与DeepSeek等其他品牌,也就是说大约有三分之一的企业级用户都在使用千问大模型。记得之前沙利文发布的2025上半年相关报告中,同样还是这三家的占比总和还不到一半;而如今却已经超过七成,
更惊人的是千问大模型增长了14.4个百分点,近乎翻倍。这也说明了两个不争的事实——越来越多的企业对于大模型的态度已经从“试水”变为“拥抱”,而阿里云千问无疑是最受中国企业欢迎和信赖的“拥抱对象”。
至此,中国IT市场的“百模大战”也可以告一段落。从2023年ChatGPT爆发开始,不少企业都发布了自家基于闭源或者开源的大模型平台,其范围也覆盖了从通用到垂直等多个维度,规模或大或小,也形成了百花齐放的局面。但是随着技术迭代与充分竞争,2025年下半年开始整个行业都在变化——闭源市场的模型数量持续减少,而以阿里云千问为代表的开源模型则主导了全球大模型的开源市场。
与闭源相比,开源大模型却呈现出“欣欣向荣”的态势,也占据了大模型市场三分之二的份额。这一方面得益于国内外开发者社区的积极参与,另一方面也有头部企业的积极引领。以千问大模型为例,依托于于阿里云平台的“天生”优势,无论是性能、生态还是覆盖力上,千问大模型都为用户提供了从小到大的多尺寸选择,也降低了开发者采用与部署门槛,实现了生态覆盖的正向反馈。这也解释了为什么短短半年时间tokens日调用量就能从10.2万亿增长到37.0万亿,这是大踏步的前进乃至飞跃。
当下,越来越多的企业正在寻求大模型尤其是Agent形态业务流的快速落地,为自身的业务插上智能化的翅膀。
阿里云从底层芯片、算力基础设施、大模型研发、开发工具链、行业应用到生态运营的完整链条,是中国唯一具备软硬一体垂直整合能力的全栈AI公司。作为基础设施企业,只能是强者恒强。
从体验到运营,大模型成为企业提升生产效率的重要通用能力
随着AI Agent的落地,越来越多的业务流程都可以通过大模型自动调用,由此为企业级服务带来了翻天覆地的变化,也形成了巨大的成本压力,促使企业对于大模型的效率与成本控制提出了新的要求,也带来了大模型需求从“体验”到“运营”的全新转变。
当大模型开始嵌入客服中枢、内部Copilot、流程自动化、智能风控等高频、长期运行的业务场景时,企业对模型的考量维度也发生了根本性转变——单次效果不再是唯一标准,“跑得快”与“跑得起”成为企业选择大模型的两大决定性因素。如何实现性能与成本兼顾,阿里云千问给出了一套解决方案。
“跑得快”是千问大模型与生俱来的优势,这主要得益于阿里云平台领先的行业技术能力与庞大的生态覆盖。作为千问大模型的“运行底座”,阿里云上的各个企业都可以通过API直接调用千问模型,享用MaaS(模型即服务)能力,这样就最大化降低了应用门槛。同时通过阿里云的IaaS和PaaS平台,用户还可以对开源的千问模型进行私有化部署和后训练,也简化了应用成本与操作难度。
这可以视为千问大模型与阿里云的“双向赋能”。一方面,通过全球部署的算力基础设施、经过验证的稳定承载能力、完整的MaaS开发平台,以及覆盖芯片到网络的垂直整合能力,让千问能够在大规模放量阶段“跑得稳、用得好”;另一方面,作为全球第一开源模型家族,千问大模型同样可以吸引海量企业和开发者涌入阿里云生态。他们在云上调用API、部署模型、后训练,消耗tokens,沉淀的数据反哺模型迭代,构建的行业应用拓展云的边界。沙利文报告也充分说明了这一点——千问大模型的32.1%调用量份额,背后阿里云是基础设施的“隐形冠军”,功不可没。
在解决了“跑得快”的问题之后,剩下就是如何实现“跑得起”,当下,所有企业都关注的成本控制难题。就在不久前,阿里发布并开源了全新一代大模型千问Qwen3.5-Plus。这一版本实现从纯文本模型到原生多模态模型的代际跃迁——总参数为3970亿激活仅170亿,部署显存占用降低60%,推理效率大幅提升,最大推理吞吐量可提升至19倍。
这种“以小博大”的效率革命,直接转化为成本优势:Qwen3.5-Plus的API价格低至每百万tokens 0.8元,仅为同等性能Gemini 3 Pro价格的1/18。这也意味着,在同样的低价区间(百万tokens不足1元)几乎找不到第二个能在推理、编程、Agent智能体、多模态理解等核心能力上与Qwen3.5-Plus匹敌的模型。千问大模型用入门级的价格,提供了旗舰级的性能,也成为了让更多企业“用得起”的高性价比生产力工具。
至此,大模型工具成曾几何时的“奢侈品”成为了人人可用的“基础设施”。
据沙利文报告显示,如今越来越多的闭源用户正在向开源增配转型,其数字已经在短短半年时间就从22.6%提升至48.5%。这也意味着大模型应用将迎来全新的爆发期。不过相比于单纯的性能提升或者价格下降,未来的竞争呈现与多元化的态势,将从“单点性能突围”演进至“性能+尺寸+部署+成本”的全方位综合博弈,包括模型的tokens数量、尺寸维度、部署难度、生态成熟度、成本控制等多个方面。
这场全方位博弈的终局,不是模型的胜负,而是综合实力的比拼——当大模型从“选型期”进入“放量期”,当企业关注的焦点从“效果最好”转向“长期跑得起”,那些能够提供“底座可控、成本可跑、规模可撑”能力的厂商,才有资格成为基础设施级的玩家。
回到沙利文报告的调研结果,阿里云千问成为绝对的领头羊,也正是因为其全栈能力,可帮助企业将AI从“试水”推向“核心”,加速数字化转型与价值创造,让智能化真正成为驱动业务增长与效率变革的引擎。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.