网易首页 > 网易号 > 正文 申请入驻

3倍吞吐量、访存减至1/10!蚂蚁甩出两大万亿参数开源模型,背后架构成关键

0
分享至

  

智东西
作者 陈骏达
编辑 漠影

  当大模型在推理、编程等能力上不断刷新纪录时,一个新的问题也愈发突出:如何在持续提升模型能力的同时,控制算力与资源消耗?

  就在本月,蚂蚁集团inclusionAI团队交出了一份颇具分量的答卷——百灵大模型家族新一代开源万亿参数模型Ling-2.5-1T(即时模型)与Ring-2.5-1T(思考模型)。

  这两款模型并非仅靠“堆参数”取胜,它们共享的技术底座——混合线性注意力架构“Ling 2.5”,才是此次发布的关键。在当前主流大模型仍以改进型传统注意力机制为核心架构的背景下,Ling-2.5-1T是业内少见的超大型混合线性注意力架构模型,而Ring-2.5-1T成为了全球首个混合线性注意力架构的万亿参数思考模型

  得益于Ling 2.5这一新架构,模型在长文本生成与长程推理场景中,将访存规模压缩至传统架构的1/10,生成吞吐量达原来的3倍。换言之,它让模型在“变聪明”的同时,也学会了“省着花”。

  同时,效率的提升并未以性能为代价。在涉及推理、智能体、指令遵循、长上下文等场景的多项基准测试中,Ling-2.5-1T超越了DeepSeek-V3.2-nothink、Kimi-K2.5-Instant和GPT-5.2-chat等同类型的即时模型。

  

  而Ring-2.5-1T则在国际数学奥林匹克竞赛(IMO 2025)和中国数学奥林匹克(CMO 2025)达到金牌水平(自测分数为IMO 35分、CMO 105分),开启重度思考(Heavy Thinking)模式后,它在IMOAnswerBench、HMMT-25等数学竞赛推理基准和LiveCodeBench-v6代码生成基准中,超越所有对比模型,无论开源闭源。

  

  那么,蚂蚁百灵的混合线性架构的技术路线究竟是如何实现的?又是如何在不牺牲性能的前提下,撬动如此显著的效率提升?

  一、万亿参数时代,传统架构还能走多远?

  在大模型持续跃迁的进程中,注意力机制始终处于舞台中央,影响着模型理解长文本、捕捉复杂语义以及生成高质量内容的能力。而Softmax一直是主流架构的核心注意力计算机制,几乎所有Transformer模型都以此为基础。

  这种机制每次计算都“翻阅”完整上下文,精准捕捉词与词的关联,赋予模型强大表达力和细粒度对齐能力。但其代价明显:随着文本长度增加,其计算量呈平方级增长,算力和显存消耗迅速攀升。

  随着应用场景向超长上下文延展,这种“精细化”的成本被重新审视。线性注意力(Linear Attention)由此进入主流视野。

  线性注意力通过数学重构,降低计算复杂度,不再为每一个token反复回溯全部序列,而是依托状态记忆持续传递核心信息——更像是一场接力赛,每一步都承接前一步的成果,无需重走来路。效率的跃升是显而易见的:更低的FLOPs、更小的显存占用、更快的生成速度。

  然而,线性机制也并非万能。在需要精准定位关键信息、进行细粒度语义对齐或复杂长程依赖建模的任务中,其表现有时难以匹敌传统注意力。于是,一条兼顾性能与效率的技术路径逐渐成型——混合线性注意力架构(Hybrid Linear Attention)

  这一思路其实很直观。同一模型中进行“分层分工”。部分层保留传统注意力处理复杂语义与全局依赖,部分层采用线性机制以降低计算负担,从而让模型在表达能力与计算效率之间实现动态平衡。

  然而,理念清晰并不意味着实现简单。真正将混合架构推向超大规模参数训练,仍面临多重挑战。

  首先是训练稳定性问题,两种机制在同一网络中协同运行,在超大规模预训练下容易引发数值震荡,影响收敛与梯度稳定。

  其次是比例调优难题,多少层采用传统注意力、多少层采用线性机制,并无通用公式,研究者需在工程与实验中反复权衡。

  再者,在上下文不断扩展的背景下,如何确保线性部分高效传递状态而不丢失关键语义信息,也成为架构设计的核心瓶颈之一。

  二、告別暴力堆算力、堆参数,如何实现混合架构的万亿级工程化跃迁

  当前,包括Minimax、月之暗面、阿里以及OpenAI等机构均已探索了混合线性注意力架构的应用潜力,行业逐渐形成共识:混合结构是突破大模型效率瓶颈的重要路径之一。

  在这一趋势之中,蚂蚁百灵的研究同样围绕上述核心问题展开。如果将其在混合线性注意力上的探索浓缩为一条清晰主线,可以分成两个阶段:技术可行性验证阶段万亿规模工程化落地阶段

  早在去年9月,蚂蚁百灵团队便开源了Ring-mini-linear-2.0与Ring-flash-linear-2.0,并发布技术报告,验证了线性注意力在真实工业规模训练和长上下文推理中的可用性。

  报告中给出的核心架构思想是将线性注意力与Softmax注意力进行分组混合,每个layer group中包含M层线性attention加1层Softmax注意力,从而在保持表达能力的前提下,把复杂度从O(n²)拉向近似O(n)。

  通过Scaling Law实验,他们验证了当M=7(即1:7的混合比例)时,在高FLOP预算下表现优于纯softmax结构。这个结论至关重要,因为它证明:在大模型规模下,“线性为主、softmax为辅”的结构不是性能退化,而是效率与效果的更优平衡。

  在这项研究中,蚂蚁还发布了两大自研高性能融合算子。一方面,通过精细化的算子融合和自适应重计算量化技术,更高效的FP8融合算子将FP8混合精度训练的计算效率提升至原来的1.5-1.7倍左右。

  

  在推理端,他们开发了更高效的线性注意力融合算子,支持更多的推理模式,进一步提升推理引擎的吞吐。

  架构优化与高性能算子协同之下,两款Ring-linear模型在深度推理场景下的推理成本仅为同尺寸Dense模型的约1/10,相较原有Ring系列成本也下降超过50%。

  完成初步探索后,蚂蚁百灵团队在其基础上提出了Ling 2.5 架构:在Ling 2.0的基础之上,通过“增量训练”的方式,将原有GQA(改进版的注意力机制,仍然基于Softmax)升级为1:7的MLA + Lightning Linear混合结构,把混合线性注意力架构真正推向万亿规模。

  

  在Ling 2.5架构中,大部分GQA层都被改造为了Lightning Linear Attention,以提升长程推理的吞吐能力;剩余GQA层近似转为MLA,以压缩KV Cache并保留表达能力

  整个改造过程中保留QK Norm、Partial RoPE等关键机制,并进行了针对性适配,从而保证模型架构迁移过程中表达能力不塌陷。

  改造完成后,Ling-2.5-1T和Ring-2.5-1T的激活参数从51B提升至63B,但在混合线性架构支持下,推理吞吐仍然显著提升,这说明架构优化带来的收益,已经超过参数规模增加带来的负担。

  在架构改造之后,蚂蚁还进一步对Ling-2.5-1T-base进行了基于9T优质语料的持续预训练,重点强化了预训练基座的世界知识覆盖与智能体交互的基础能力。

  同时,凭借混合线性注意力架构在长文本处理上的高计算效率与可扩展性,他们将Ling-2.5-1T的上下文窗口扩展训练至256K tokens,并通过YaRN外推支持最高1M tokens的超长上下文处理能力。

  三、从实验室到真实场景:架构优化带来了什么?

  在蚂蚁对外发布的基准测试中,我们能直观感受到混合线性注意力带来的性能提升。

  以AIME 2026评测为例,当平均输出长度约为5890个token时,新一代Ling-2.5-1T模型的表现显著超越前代Ling-1T,并已逼近前沿思考模型的水平。值得注意的是,后者通常需要生成15000到23000个token才能完成同样复杂的任务。

  

  在衡量长文本处理能力的RULER与MRCR基准测试(覆盖16K至256K token范围)中,Ling-2.5-1T取得了优于采用MLA/DSA架构的主流大型即时模型(如Kimi K2.5、DeepSeek V3.2)的分数。

  Ring-2.5-1T则在数学、代码、逻辑等高难推理任务和智能体搜索、软件工程、工具调用等长程任务执行上均达到了开源领先水平。这些任务的性能提升,与混合线性注意力架构在处理长程依赖和状态压缩方面的优势密切相关。线性机制实现了高效的上下文信息传递,有效支撑了复杂推理任务对长序列建模的需求。

  这种架构上的优势也直接转化为工程实践上的红利。即便在激活参数量增加至63B的情况下,基于混合线性注意力的Ling-2.5在单机8卡H200的配置下,其长文本生成的解码吞吐量(decode throughput)仍显著优于前代1T规模模型以及同等参数量的Kimi K2。

  并且,随着生成文本长度的增加,这种吞吐量优势变得越发明显,充分展现了混合线性注意力在长程推理场景下的效率优越性。

  

  模型能力的提升在实际应用案例中同样得到了体现。在下方这个关于《知识产权质押纠纷》的复杂法律指令遵循任务中,Ling-2.5-1T能够严格遵循超过10项涵盖内容框架、细节、格式和字数等多维度的指令约束,生成条理清晰、逻辑连贯的答复。

  这得益于优化后的长上下文能力,确保了模型能在跨越多个细分指令的过程中始终保持一致性,避免信息断裂。

  

  而在这个财报解读案例中,模型可以对数十页的财报进行信息的抽取汇总,并对重点财务衍生指标进行计算,得到财报的深度分析结论。

  

  庞大的长上下文窗口与高效的token利用率,使得这类复杂任务无需分解,即可一次性流畅完成。

  这些技术特性在实际应用中具有明确的商业价值。长期以来,大模型在规模化部署中主要受限于推理成本,而此次架构层面的优化直接降低了单位请求的算力开销,使企业能够在同等硬件条件下支持更高并发,进而降低AI功能集成的门槛。

  百万token级别的长上下文支持,拓展了模型在复杂文档处理场景中的可用性,例如长篇幅法律文书的语义解析、科研文献的批量梳理等。同时,模型在多步推理与跨段落信息整合方面的表现,也为构建企业级智能体及知识处理自动化系统提供了更稳定的技术基础。

  结语:跳出“参数竞赛”,回归架构进化的本质

  就在2月,蚂蚁百灵大模型家族迎来了一系列重要开源与发布:原生全模态模型Ming-flash-2.0、扩散语言模型LLaDA2.1、思考模型Ring-2.5-1T,以及旗舰基座即时模型Ling-2.5-1T。这一系列模型在多个关键基准上具备竞争力,让蚂蚁稳居国内大模型行业第一梯队,而全系列开源的策略,也让其成为当下AI开源生态中不可忽视的新力量。

  回溯百灵家族的整体布局,其演进逻辑清晰可见:并非单一追求参数规模攀升,而是在多模态感知、语言生成机制、深度推理能力与即时响应效率等核心维度上全面布局,构建互为补充、协同进化的模型矩阵。

  而站在更宏观的行业视角,Ling 2.5架构的成功,传递出一个重要信号:架构创新仍是大模型演进的关键变量。更高的推理效率、更长的上下文处理、更低的部署成本——这些由架构革新带来的系统性优势,正在重新定义大模型的能力边界。

  当技术路线趋于多元,当开源生态持续繁荣,开发者也就拥有了更灵活的工具组合来应对不同场景的挑战。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
比国足还惨!意大利已12年未踢世界杯,仅剩33岁维拉蒂踢过世界杯

比国足还惨!意大利已12年未踢世界杯,仅剩33岁维拉蒂踢过世界杯

小金体坛大视野
2026-03-26 11:16:02
中国、俄罗斯、伊朗等123票赞成,美国、以色列等3票反对,联合国认定:最严重反人类罪!英法德日等52国投弃权票

中国、俄罗斯、伊朗等123票赞成,美国、以色列等3票反对,联合国认定:最严重反人类罪!英法德日等52国投弃权票

每日经济新闻
2026-03-26 13:25:09
是什么,让这个日本自卫官竟敢对中国大使馆举刀?

是什么,让这个日本自卫官竟敢对中国大使馆举刀?

环球时报国际
2026-03-26 00:13:51
中国禁止AI公司Manus两名高管离境?外交部回应

中国禁止AI公司Manus两名高管离境?外交部回应

澎湃新闻
2026-03-26 15:36:31
上海一女子“闪婚”拿到价值近千万房产99%份额,“闪离”后起诉分割房产,法院判了!

上海一女子“闪婚”拿到价值近千万房产99%份额,“闪离”后起诉分割房产,法院判了!

环球网资讯
2026-03-26 08:13:14
我在小城市,一个人做电商,半年挣300万

我在小城市,一个人做电商,半年挣300万

南风窗
2026-03-26 10:07:51
心酸!湖南某乡镇一位小学教师哭诉年收入73150元,评论区炸锅了

心酸!湖南某乡镇一位小学教师哭诉年收入73150元,评论区炸锅了

火山詩话
2026-03-26 09:24:48
女子在按摩店做理疗时被技师偷走金项链

女子在按摩店做理疗时被技师偷走金项链

新闻晨报随申Hi
2026-03-26 09:56:05
想拿中国尿素救春耕?先把欠中企的百亿欠款还了!否则一粒不售

想拿中国尿素救春耕?先把欠中企的百亿欠款还了!否则一粒不售

过期少女致幻录
2026-03-26 11:44:43
快递每次都被邻居大妈拿走,我改成货到付款,不到三天物业打电话

快递每次都被邻居大妈拿走,我改成货到付款,不到三天物业打电话

船长与船1
2026-03-26 09:44:01
万科高管被要求退还薪酬

万科高管被要求退还薪酬

地产微资讯
2026-03-26 12:22:04
外交部发言人反问日媒:“你见过有人未经允许持刀进入使馆与大使交谈的先例吗?”

外交部发言人反问日媒:“你见过有人未经允许持刀进入使馆与大使交谈的先例吗?”

环球网资讯
2026-03-25 15:39:26
继张雪峰之后,中医大师黄贵华被曝心梗去世,社交账号已变黑白

继张雪峰之后,中医大师黄贵华被曝心梗去世,社交账号已变黑白

180视角
2026-03-26 11:52:12
丧夫仅5个月,49岁翁帆突传“喜讯”高调露面,状态好到出人意料

丧夫仅5个月,49岁翁帆突传“喜讯”高调露面,状态好到出人意料

冷紫葉
2026-03-24 19:12:36
新加坡站队了?正式向世界宣布:中方若继续挑衅日本,会让他好看

新加坡站队了?正式向世界宣布:中方若继续挑衅日本,会让他好看

小影的娱乐
2026-03-26 13:45:58
原来她是张雪峰前妻,90后历史学博士‌,两人离婚后曾一起上节目

原来她是张雪峰前妻,90后历史学博士‌,两人离婚后曾一起上节目

大铁猫娱乐
2026-03-25 13:03:57
蔡正元即将入狱,国台办做出回应,内容不寻常,已看透他的真面目

蔡正元即将入狱,国台办做出回应,内容不寻常,已看透他的真面目

小陆搞笑日常
2026-03-26 11:57:06
扎哈罗娃警告日本:任何试图向乌提供致命武器之举,都将招致强硬回应

扎哈罗娃警告日本:任何试图向乌提供致命武器之举,都将招致强硬回应

环球网资讯
2026-03-26 08:55:12
日媒曝光强闯我驻日使馆不法之徒照片;案发前行动轨迹公布:乘坐新干线到达东京,在网吧过夜,现场发现的刀具,其称是在车站附近购买

日媒曝光强闯我驻日使馆不法之徒照片;案发前行动轨迹公布:乘坐新干线到达东京,在网吧过夜,现场发现的刀具,其称是在车站附近购买

大风新闻
2026-03-26 12:13:02
张雪峰遗产分割复杂!11岁女儿面临跟后妈争产,是否立遗嘱成关键

张雪峰遗产分割复杂!11岁女儿面临跟后妈争产,是否立遗嘱成关键

萌神木木
2026-03-25 18:56:27
2026-03-26 16:55:00
智东西 incentive-icons
智东西
聚焦智能变革,服务产业升级。
11433文章数 117015关注度
往期回顾 全部

科技要闻

Meta高管狂分百亿期权,700名员工却下岗

头条要闻

国防部:日本侵略过所有周边国家 至今都没有真正反省

头条要闻

国防部:日本侵略过所有周边国家 至今都没有真正反省

体育要闻

申京努力了,然而杜兰特啊

娱乐要闻

张雪峰家人首发声 不设追思会丧事从简

财经要闻

长护险谁能享受?享受多少?解答来了

汽车要闻

一汽奥迪A6L e-tron开启预售 CLTC最大续航815km

态度原创

教育
游戏
本地
旅游
数码

教育要闻

2026湖北高职单招工作启动

商业互吹or真心话?制作人玩《红色沙漠》忘记工作

本地新闻

救命,这只酱板鸭已经在我手机复仇了一万遍

旅游要闻

德阳绵竹:赏花、览文旅精品......沿山旅游“火”起来

数码要闻

1599~2499元,英特尔酷睿Ultra 200S Plus处理器发售

无障碍浏览 进入关怀版