![]()
文:王智远 | ID:Z201440
今天除夕,阿里发了Qwen 3.5。
为什么阿里非要把这款大模型放在春节期间发布?因为春节是中国人最重要的日子,他们对这款产品有绝对的信心。
这款让阿里「除夕夜加班」的模型,到底强在哪?
01
先看一组数字。Qwen 3.5-Plus,总参数3970亿,激活只用了170亿。
什么意思呢?打个比方:
一个公司有3970名员工,涵盖各种领域的专家;但每次接到任务,他们不搞全员大会,只根据任务类型,精准叫醒最懂行的170个人出来干活。
结果呢?这170个人干的活,比对手1万人的团队、数百人的专家还要漂亮。
这就是「以小胜大」。
上一代Qwen3-Max是万亿参数,这一代Qwen3.5-Plus只有不到4000亿总参数,但性能反超了;推理吞吐量最高提升19倍,部署成本降低60%。
翻译成大白话即:跑得更快,吃得还少。凭什么能做到呢?凭阿里这次在底层架构上动了三刀。
第一个刀法叫「混合注意力机制」。以前大模型处理长文本,像一个人读一本厚厚的书,每读一个字都要回头复习前面所有的字。
读到第1万字,得把前面9999个字都过一遍;这谁受得了?
千问3.5的做法:重要的内容精读,次要的内容略读,像人读书一样,该快的地方快,该慢的地方慢。效率和精度,同时保住了。
第二个刀法叫「极致稀疏MoE」。
前面说的那3970名员工,每次只叫醒最相关的17个,这叫「稀疏」,谁懂谁进来;过去那种「把所有专家都请到会议室」的稠密模型,太累了,看着阵仗大,其实大部分人在玩手机。
第三个刀法叫「多Token预测」。
以前模型生成文字,是一个字一个字往外蹦,蹦完第一个想第二个,蹦完第二个想第三个。
千问3.5换了个思路:先想好接下来几步说什么,然后一口气说出来。就像你聊天,是想好一整句话再说。结果呢?响应速度翻倍。
![]()
注释:同样的时间内,千问3.5能吐出多少内容。32K上下文时,它是Qwen3-Max的8.6倍;256K超长上下文时,直接飙到19倍。
值得一提的是,还有一个刀法叫「门控机制」。这是千问团队拿了NeurIPS 2025最佳论文的技术。
简单说,给注意力装了个「智能水龙头」,该放大的信息放大,该过滤的过滤,防止有效信息被淹没,也防止无效信息瞎嚷嚷。
这个水龙头装在哪、怎么调,是人家一年前就开始琢磨的事,现在终于用上了。
所以,几道下来,效果怎么样?
考验知识广度的MMLU-Pro评测中,千问3.5拿了87.8分,超过GPT-5.2。专为难倒博士设计的GPQA难题集上,88.4分,超过Claude 4.5。
考验模型能不能听懂人话的IFBench指令遵循测试中,76.5分,刷新所有模型纪录。
至于动手能力,也就是行业里说的Agent智能体,BFCL-V4和Browsecomp两个评测里,千问3.5全面超越Gemini 3 Pro和GPT-5.2。
说白了,样样强。但比分数更有意思的是方向。
过去两年,大模型行业信奉「大力出奇迹」,参数从千亿堆到万亿,性能确实在涨;代价也在涨,部署要专用集群,推理要烧算力,中小企业用不起,端侧设备跑不动。
千问3.5换了一条路:用技术创新替代参数堆砌,用架构效率替代蛮力硬扛。这条路,至少目前看,走通了。
02
走通了,问题来了,当模型变得更聪明、更便宜,它能帮我们做什么?
用一个词总结就是:原生多模态。
市面上很多模型也说自己「多模态」,能看图、能识字。但仔细看,大多是拼装的;先训好一个语言模型,再外挂一个视觉模块,中间靠「适配器」勉强对齐。
有的产品甚至在后台做路由分发,你发一张图,它悄悄转给另一个模型处理,用户以为是一个模型全能,其实多个模型轮班。
千问3.5走了一条不同的路。
预训练第一天起,在文本、视觉混合数据上一起学。不是先学会说话再睁开眼睛,是一边看世界一边学说话。
视觉和语言在同一个神经网络里深度融合,看到一张图,自然就懂它的语义;读到一段文字,脑子里能自动构建对应的画面。没有中间翻译,没有信息折损。
这叫「原生」。
智远认为,「原生」价值在于它为后续的能力进化埋下了伏笔,因为只有从底层打通了视觉和语言,模型才可能真正理解物理世界的逻辑,这是通往AGI的必经之路。
打通之后,千问3.5能做什么?
先说看得见的。
它能理解长达2小时的视频;你扔进去一部电影,它能分析剧情走向、人物关系、因果关系,是真的看懂了时间线上的变化。
它能对图像做像素级定位,你想改图上某个地方,说句话它就懂;它还能把手绘的界面草图直接转成可运行的前端代码,产品经理画个框,程序员不用写了。
甚至,它能看懂截图里的UI问题,然后自动修复。
数字也能说明问题;多模态推理的MathVison评测里,千问3.5拿了第一。通用视觉问答RealWorldQA里,第一。OCR文字识别CC_OCR里,第一。
空间智能RefCOCO里,第一。视频理解MLVU里,还是第一。相比上一代的千问视觉专项模型,千问3.5的空间定位推理、带图推理能力都大幅增强,看得见,还看得准。
有了「看懂世界」的能力,千问3.5开始「动手办事」了。
它可以自主操作手机和电脑,跨应用完成复杂任务。你说「帮我把昨晚聚会的照片整理成相册,再挑几张发朋友圈」,它能自己打开相册、筛选照片、编辑文案、切换到微信、发布。
一系列操作,不用你动手。
千问团队还专门搭了一套强化学习框架,让智能体在真实场景里反复练习,端到端效率提升3到5倍。
春节期间,千问App的AI购物Agent上线,6天时间帮用户完成了1.2亿笔订单,这是全球第一次,AI在真实世界里大规模帮人办事,还办成了。
从「看懂」到「动手」,千问3.5迈出了关键一步。这些技术创新,对于商业有什么影响呢?
03
先说结论:价格便宜了,API价格每百万Token只要0.8元,只有Gemini 3 Pro的1/18。
很多人第一反应:这不是赔本赚吆喝吗?错了。极致性价比,是设计出来的。如果补贴,那不可持续;但如果成本结构本身就不一样,那就是降维打击。
那成本咋降的呢?就三点:
一,架构本身就省钱。总参数3970亿只激活170亿,算力需求本来就少,成本天然就低。
第二,芯片帮了大忙。阿里有平头哥,有自己真武芯片。这颗芯片针对MoE架构做了大量优化。
通用芯片跑MoE,很多算力浪费在「调度专家」这件事上;真武芯片专门为这种模式设计,相当于给模型配了个「懂行的调度员」,同样的电,干更多的活。
这部分是云厂商自研芯片才有的红利,第三方模型拿不到。
第三,云基础设施的协同。
千问3.5的训练和推理都在阿里云上跑,通过FP8/FP32混合精度这类底层优化,激活内存减少约50%,训练提速10%。
不懂这两个词没关系,你可以把它理解成,就像装修时有的地方用实木、有的地方用复合板,整体效果不变但材料成本低了。
更关键的是,模型和云是「一家人」,调度、部署、扩容都比跨厂商顺畅得多。这种效率损耗的减少,最终都折算成成本的降低。
三点说完就清晰了,千问3.5的便宜,是「设计」出来的。
当顶级模型变成白菜价,商业世界会发生什么?
门槛肯定拉平。过去调用顶级模型,中小企业要掂量掂量预算;现在每百万Token 0.8元,相当于写一本《三体》那样的长篇小说,成本也就几块钱。
AI能力不再是巨头的专利,创业团队、个人开发者都用得起。
然后,是场景被激活;成本足够低,开发者才敢放心大胆地用,做错了重来,实验失败了再来一次,不心疼。这会催生一大批之前不敢想的AI应用。
沙利文数据显示,千问在中国企业级大模型调用市场中位居第一;Omdia的数据说,2025年上半年,中国AI云市场阿里云占35.8%,超过第二到第四名总和。
2025年全年,阿里云在中国云市场的份额从33%提升到36%,领先优势进一步扩大。
这些数据说明一件事,在千问3.5发布之前,「Powered by 阿里云」就已经是很多企业的默认选项。而今天,当新模型把性能推到新高、把成本打到新低,这个「默认选项」的势能只会被进一步放大。
就像云计算当年把服务器成本打下来,催生了无数互联网创新。模型、芯片、云形成的正循环,正在让阿里云成为AI时代的基础设施。
但,还有更狠的,阿里居然在春节把它开源了。
04
你想想,一个模型性能追平甚至超过GPT-5.2、Gemini 3 Pro,API价格只要人家的1/18,按理说藏着卖钱多好;阿里偏不,直接开源,代码、权重全放出来,谁爱下谁下,谁爱改谁改。
图啥呢?智远觉得,阿里打的算盘是「建生态」。
你看几个数字:
到今天,千问开源模型超过400个,什么尺寸都有,从0.5B的小模型到400B的大模型,纯文本的、视觉的、多模态的,覆盖得严严实实。
全球开发者基于千问做的衍生模型,超过20万个;下载量突破10亿次,甚至单月下载量比DeepSeek、Meta、OpenAI、智谱、Kimi、MiniMax这六家加起来还多。
李飞飞团队在用,爱彼迎在用,全球各地的创业公司、个人开发者都在用。
这意味着什么?
千问成了AI圈的「公共基础设施」。你做项目,想找个开源模型,不用纠结选哪个,因为千问最好用、最全、还免费,你用着用着,就习惯了;习惯着习惯着,就离不开了。
这就是开源的魔力。
历史上,这套打法被验证过两次。第一次是Linux。上世纪90年代,服务器操作系统还是Windows NT和各种Unix的天下,Linux横空出世,免费、开源、全世界一起改bug。
一开始没人当回事,觉得「免费的东西能好到哪去?」结果呢?今天互联网服务器超过96%跑在Linux上;没人问「为什么不用Windows Server」,因为Linux就是默认选项。
安卓也这么干的。手机厂商想做系统,要么自己从头造(累死),要么用安卓(省事);结果全球几十亿台手机,都跑在安卓上。
阿里现在做的,就是AI时代的Linux和安卓。
把最强模型开源,让全球开发者帮你迭代、帮你完善、帮你把它用到各种奇奇怪怪的场景里;衍生模型越多,生态就越厚;生态越厚,后来者就越难绕过。到最后,「用千问」就变成了「不用思考的事」。
而且这个生态,最后会流回阿里云。
你想,开发者用千问做应用,跑在哪里?最顺手、最便宜、最没兼容问题的地方,当然是阿里云;企业用千问做业务,调API找谁?当然是「模型芯片云一家人」的阿里云。
这就是闭环,开源吸引开发者,开发者繁荣生态,生态带动云服务,云服务反哺模型迭代;一圈转起来,越转越快。
智远认为,这才是阿里「除夕开源」的真正用意,抢未来十年的生态位;所以,你看,千问3.5发布,表面是技术事件,其实阿里在AI时代布的一盘大棋。
千问3.5凭什么「以小胜大」?因为有技术创新、有原生多模态、有极致性价比、有开源技术。
大模型的「吨位战」结束了。
接下来比的,是谁能让更多人用得起、用得上、用得顺手;参数不重要,效率才重要;跑分不重要,生态才重要;闭源不重要,开源才重要。
2026年刚开始,阿里就把牌桌掀了。接下来,就看其他人怎么跟。
对了,开发者现在就能上手,魔搭社区和HuggingFace已经可以下载新模型,想直接调API的,去阿里云百炼就行。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.