网易首页 > 网易号 > 正文 申请入驻

阿里开源 Qwen3 系列“混合”推理模型,据称全面超越 Llama 4

0
分享至

备受关注的Qwen3 终于来了。

此前就陆续有消息宣称阿里将于4 月更新其 Qwen 系列模型,终于,在四月的最后两天,阿里巴巴 Qwen Team 对外发布了其 Qwen 系列大型语言模型的新成员——Qwen3。

此次发布的Qwen3 系列涵盖了从小型到超大型的多个模型,旨在满足不同应用场景下的需求。其中,最吸引人眼球的当属旗舰模型Qwen3-235B-A22B。这是一款采用 MoE(Mixture of Experts, 混合专家)架构的大模型,拥有 2350 亿总参数量,在推理时激活其中的 220 亿参数。

除了旗舰模型,Qwen Team 还同时开源了另一款 MoE 模型Qwen3-30B-A3B。该模型总参数量约为 300 亿,激活参数量为 30 亿。官方资料显示,这款模型的激活参数量仅为 Qwen 团队另一款模型 QwQ-32B 的 10%,但在性能上却表现更优。这使得 Qwen3-30B-A3B 在需要高效推理和本地部署的场景下非常具有优势,例如本地编程。

此外,Qwen3 系列还包含六款传统的 Dense(密集)架构模型,参数规模从 0.6B 到 32B 不等,具体包括:Qwen3-0.6B、Qwen3-1.7B、Qwen3-4B、Qwen3-8B、Qwen3-14B 和 Qwen3-32B。这些 Dense 模型采用了更传统的架构,所有参数在推理时都会参与计算。Qwen Team 对这些模型的权重也进行了全面开源。

基准测试结果显示,Qwen3 系列的表现相当亮眼。

尽管参数量相对较小,但旗舰模型Qwen3-235B-A22B 在代码生成与理解、数学推理、通用能力等关键领域,与 DeepSeek-R1、o1、o3-mini、Grok-3 以及 Google 的 Gemini-2.5-Pro 等顶级模型不相上下甚至有所超越。最重要的是,在各项评估中,它都用不到一半的参数量实现了对直接竞争对手 LLaMA-4-Maverick 的全面超越。

小型MoE 模型Qwen3-30B-A3B的表现同样出色。尽管其激活参数量仅为 30 亿,但在 ArenaHard、LiveCodeBench 等多项测试中,其性能不仅超越了参数量更大的 Qwen2.5-72B-Instruct 模型,还在某些项目上接近或超过了 GPT-4o。甚至参数量相当小的Qwen3-4B,也能在部分基准测试中匹敌或超越参数量远大于它的 Qwen2.5-72B-Instruct。

此外,和Gemini 2.5 Flash 一样,Qwen 3 系列最大的亮点是引入了思考/非思考这两种可切换的思考模式,这种设计允许用户根据任务需求,在推理深度(可能带来更高质量的答案)和响应速度(效率更高)之间进行权衡。官方称之为“思考预算”(Thinking Budget)控制。

Qwen 团队的数据显示,模型的性能提升与分配的计算推理预算(以 K tokens 为单位衡量)直接相关,并且展现出可扩展且平滑的性能曲线。这意味着用户可以通过调整预算,在成本效益和推理质量之间找到最佳平衡点。

在实际使用中,用户可以通过API 调用时的参数(如 enable_thinking=True/False)来控制默认模式。而且,Qwen3 还支持在多轮对话中通过在用户输入中添加特定指令(如 /think 或 /no_think)来动态切换当前轮次的思考模式,模型会遵循最近的指令。

Qwen3 的另一个亮点是,在多语言方面做出了重大改善,官方宣布其支持多达119 种语言和方言。这覆盖了全球主要的语系,包括:

除了基础的语言理解和生成能力,现代大型语言模型在执行复杂任务、与外部工具交互(即Agent 能力)以及编写和理解代码方面的能力也日益受到重视。Qwen3 在这些方面也进行了重点优化。

官方表示,Qwen3 模型的 Agent 能力和代码能力得到了显著提升,并且加强了对 MCP(Model Context Protocol)的支持,使得 Qwen 3 能更有效地参与到多智能体协作的场景中。

另外值得一提的是,据 Qwen 团队研究员郑楚杰透露,Qwen3 还有一些未在模型卡中透露出的有趣特性,或许能为研究和产品开辟出一些新的空间,值得我们期待一下。

在训练方面,Qwen 3 使用了约 36 万亿个 token 进行预训练,几乎是 Qwen2.5(18 万亿 token)的两倍。团队不仅从网络收集数据,还从 PDF 文档中提取信息,并利用 Qwen2.5-VL(Vision Language,视觉语言)和 Qwen2.5 改善提取内容质量。为增加数学和代码数据,团队还利用 Qwen2.5-Math 和 Qwen2.5-Coder 这两个领域专家模型合成数据。

预训练过程分为三个阶段:首先在超过30 万亿个 token 上进行基础预训练;其次增加知识密集型数据比例并额外训练 5 万亿个 token;最后使用高质量长上下文数据将上下文长度扩展到 32K token。

模型架构的改进也是Qwen3 性能提升的关键因素之一。官方提到,由于模型架构的改进、训练数据的增加以及更有效的训练方法,Qwen3 的 Dense 基础模型在整体性能上已经能与参数量更多的 Qwen2.5 基础模型相媲美。例如,Qwen3 的 1.7B 到 32B 的 Dense 模型分别能达到 Qwen2.5 的 3B 到 72B Base 模型的水平。对于 MoE 模型,在仅使用约 10% 激活参数的情况下,就能达到与 Qwen2.5 Dense 基础模型相似的性能,显著节省了训练和推理成本。

后训练部分,对于Qwen3-235B-A22B 等旗舰模型,训练从基础模型出发,经历了与 DeepSeek- R1 比较类似的四个步骤:

1.长思维链冷启动 (Long-CoT Cold Start):使用多样化的长思维链数据对模型进行微调,覆盖数学、代码、逻辑推理和 STEM(科学、技术、工程、数学)等领域,旨在为模型注入基础的推理能力。

2.长思维链强化学习 (Long-CoT Reasoning RL):进行大规模强化学习(Reinforcement Learning, RL),利用基于规则的奖励来增强模型的探索和钻研能力。

3.思维模式融合 (Thinking Mode Fusion):将包含长思维链数据和常用指令微调数据的混合数据集用于模型微调,目的是将非思考模式无缝整合到思考模式中,确保推理能力和快速响应能力的结合。

4.通用强化学习 (General RL):在包括指令遵循、格式遵循和 Agent 能力等在内的 20 多个通用任务领域应用强化学习,进一步增强模型的通用能力并纠正不良行为。

对于更小的轻量级模型,则是由强模型进行蒸馏。流程图显示,这种蒸馏过程利用了经过复杂四阶段训练的前沿模型作为“教师模型”,将其能力迁移到参数量较小的“学生模型”上(这也解释了轻量级模型能在相对较小规模下继承强大性能的原因)。

目前,模型权重已上架Hugging Face、ModelScope、Kaggle 等平台。对于生产环境部署,推荐使用 SGLang、vLLM 等框架。同时,Ollama、LMStudio、llama.cpp 等本地工具也提供了支持。官方还提供了详细的 Python 代码示例。

参考资料:

1. https://qwenlm.github.io/zh/blog/qwen3/

排版:溪树

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
中国最牛的金融大佬突然人间蒸发了,你敢信?

中国最牛的金融大佬突然人间蒸发了,你敢信?

流苏晚晴
2025-11-08 16:57:38
亲戚可以提出多离谱的要求?网友:这些严格来说不算是人了吧

亲戚可以提出多离谱的要求?网友:这些严格来说不算是人了吧

带你感受人间冷暖
2025-11-08 00:15:06
“人民咖啡馆”被央媒点名批评后紧急改名,记者实探:店铺已开始整改,店名被遮盖

“人民咖啡馆”被央媒点名批评后紧急改名,记者实探:店铺已开始整改,店名被遮盖

极目新闻
2025-11-08 13:20:10
张子宇扣篮了!改写中国女篮历史!完成实战首次暴扣激动握拳狂奔

张子宇扣篮了!改写中国女篮历史!完成实战首次暴扣激动握拳狂奔

嘴炮体坛
2025-11-08 19:56:33
贾乃亮李小璐合体直播卖货?网友:这吃相太难看了!

贾乃亮李小璐合体直播卖货?网友:这吃相太难看了!

毒舌八卦
2025-11-07 23:40:37
副院长和女主任值班室“加班”,监控全拍下来了!

副院长和女主任值班室“加班”,监控全拍下来了!

听风听你
2025-11-06 18:53:41
61年造币厂职工偷走800两黄金,19年后兑换,银行一眼识破

61年造币厂职工偷走800两黄金,19年后兑换,银行一眼识破

兴趣知识
2025-11-06 03:15:03
杀人诛心?东契奇本赛季盖帽数多于前东家独行侠目前胜场数

杀人诛心?东契奇本赛季盖帽数多于前东家独行侠目前胜场数

懂球帝
2025-11-08 20:44:13
预判了詹姆斯的预判,湖人交易东契奇是神来之笔,重新掌握主动权

预判了詹姆斯的预判,湖人交易东契奇是神来之笔,重新掌握主动权

摸神drose
2025-11-07 21:57:38
他贪了超11个亿,用拉菲漱口金砖垫脚,为模特一夜花888万元!

他贪了超11个亿,用拉菲漱口金砖垫脚,为模特一夜花888万元!

牛牛叨史
2025-11-08 17:58:03
中到大雨局部暴雨!今晚起,云南将再迎强降水,昆明……

中到大雨局部暴雨!今晚起,云南将再迎强降水,昆明……

鲁中晨报
2025-11-08 19:03:11
热火首节轰下53分!创联盟历史第二高纪录

热火首节轰下53分!创联盟历史第二高纪录

北青网-北京青年报
2025-11-08 15:27:04
长公主也老了,腰也变圆润了

长公主也老了,腰也变圆润了

户外钓鱼哥阿勇
2025-11-08 15:03:02
雷军这回栽了,小米法务被这个女人拿捏,太打脸

雷军这回栽了,小米法务被这个女人拿捏,太打脸

公子麦少
2025-11-07 14:39:17
9战7败西部垫底!独行侠最多落后35分输灰熊 莫兰特21+13状元12分

9战7败西部垫底!独行侠最多落后35分输灰熊 莫兰特21+13状元12分

醉卧浮生
2025-11-08 11:38:00
“眼科女王”曾琦,多张漂亮优雅照片曝光,未来3大困境等着她

“眼科女王”曾琦,多张漂亮优雅照片曝光,未来3大困境等着她

小娱乐悠悠
2025-11-08 11:07:31
当今社会,为什么很多人看不惯拿高额退休金的老人?

当今社会,为什么很多人看不惯拿高额退休金的老人?

诗词中国
2025-11-07 19:45:21
大陆统一号角吹响,绿营开始在岛内“抓卧底”,于北辰被重点怀疑

大陆统一号角吹响,绿营开始在岛内“抓卧底”,于北辰被重点怀疑

钦点历史
2025-11-07 17:43:31
这块臭豆腐,太上头!

这块臭豆腐,太上头!

梳子姐
2025-11-07 11:18:03
中美俄卫星定位精度差距太大!美0.1米,俄1.5米,中国北斗是多少

中美俄卫星定位精度差距太大!美0.1米,俄1.5米,中国北斗是多少

慎独赢
2025-06-11 12:35:48
2025-11-08 21:00:49
DeepTech深科技 incentive-icons
DeepTech深科技
麻省理工科技评论独家合作
15837文章数 514275关注度
往期回顾 全部

科技要闻

美股“AI八巨头”单周市值损失8000亿美元

头条要闻

"全网最像夫妻"被喊话测DNA 妻子:做过婚检 越长越像

头条要闻

"全网最像夫妻"被喊话测DNA 妻子:做过婚检 越长越像

体育要闻

马刺绞赢火箭,不靠文班亚马?

娱乐要闻

古二再度放料!秦雯王家卫吐槽出现新人物

财经要闻

小马、文远回港上市 但自动驾驶还没赢家

汽车要闻

特斯拉Model Y后驱长续航版上线:28.85 万元

态度原创

数码
本地
家居
时尚
艺术

数码要闻

曝英伟达 GeForce RTX 50 显卡 SUPER 中期更新“延期”至 2026Q3

本地新闻

这届干饭人,已经把博物馆吃成了食堂

家居要闻

现代自由 功能美学居所

她不靠穿搭谋生,却因穿搭走红,在穿衣上找到主体性是什么体验?

艺术要闻

40岁老板娘风流成性,同时交往多名男友!被情人痛下杀手...

无障碍浏览 进入关怀版