![]()
更少的 Token,更好的结果。
作者丨吴海明
编辑丨梁丙鉴 马晓宁
用户苦 Token 成本久矣。
“烧了几千块钱的 Token,Agent 还是没把活干完”,这或许是第一批尝鲜“养虾”的弄潮儿们最不想面对、却又最常遭遇的尴尬时刻。
当 Agent 越发全面地接管工作流,人们在交付效果的权衡中,开始更多地看到效率问题。有时候它们能自主完成需求分析、多轮修改,直接交付可用的文案或代码,有时候却在复杂任务的拆解中,迷失工具调用的方向。端到端的任务场景,往往会让成本失控的问题更加凸显。一觉醒来,Token账单几百美元,正事却没干多少。
不少开发者会将之归咎于 Agent 的架构设计、工具链的完善程度,或是 Prompt 工程的深浅。但更根本的矛盾是,大模型本身的“执行力”,即高效完成任务的能力,可能远未达到工业级可用标准。
这不仅指推理质量本身,一个常被忽视的维度是词元效率(Token Efficiency)。
当传统模型在多轮对话中不断膨胀上下文窗口、消耗惊人 Token 时,蚂蚁百灵最新发布的Ling-2.6-flash,却在用一个简单的主张撬动开发者的注意:更少Token,更快响应、更强执行。
一周前,代号为 Elephant Alpha 的匿名模型登陆 OpenRouter,这正是百灵模型 Ling-2.6-flash 的匿名测试版本。上线首日,Elephant Alpha 在没有高调预热的情况下,就迅速冲上 OpenRouter Trending 榜单第 2 位,日榜第 13 名,Token 使用量日增高达377%,prompt tokens 突破 6.11B。
开发者社区对这一路线的反应,已经很说明问题。
![]()
01
Token效率成新赛点
官方技术文档介绍,Ling-2.6-flsah 是一款总参数量 104B、激活参数 7.4B 的 Instruct 模型,此前通过 Elephant Alpha 展示出的核心能力,主要来自三方面革新:
▪ 混合线性架构,释放推理效率:通过引入混合线性架构,模型从底层优化计算效率,在 4 卡 H20 条件下推理速度最快可达到 340 tokens/s,Prefill 吞吐达到 Nemotron-3-Super 的 2.2 倍,以更高的“费效比”完成任务。
▪ Token 效率优化,提升智效比:在训练过程中,研究团队对Ling-2.6-flsah 的 Token 效率进行了针对性校准,力求以更精简的输出完成既定目标。在 Artificial Analysis 的完整评测中,Ling-2.6-flash仅消耗15M tokens,约为Nemotron-3-Super 等模型的1/10,以更高的“智效比”完成任务。
▪ 面向 Agent 场景进行定向增强:针对当前需求最旺盛的 Agent 应用,Ling-2.6-flash 在工具调用、多步规划与任务执行能力上持续优化,在 BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench 等评测中,即使面对激活参数更大的模型,依然能够取得相近甚至 SOTA 级别的表现。
![]()
API 定价方面,Ling-2.6-flash 输入每百万 tokens 定价 0.1 美元,输出 0.3 美元,属实属于“白菜价”了。目前其 API 服务已正式向用户开放,并提供了为期一周的免费试用。
单点极限能力的榜首,早已是你方唱罢我登场,Ling-2.6-flash 更值得关注之处在于,它在控制 Token 消耗的前提下,仍然维持住了自身在 Agent 性能之争中的强大竞争力。多位海外评测者也指出,其输出风格与产品体验更接近“实用型而非单纯强大”的定位,这与其宣称的“追求极致智效比”形成了某种呼应。
作为第一款主打 Token 效率的模型,“高智效比”究竟是营销话术,还是实打实的能力?我们第一时间上手了 Elephant Alpha,不追峰值能力,不刷榜单分数,而是将它放进真实任务场景中,实测结果说话。
02
实测:少即是多,Elephant Alpha实力几何?
▪ 测试一:基准测试——词元效率(Token Efficiency)基准
为确保客观性,我们以 Qwen3.5-122B-A10B (Qwen3.5) 和 Nemotron-3-Super-120B-A12B (Nemotron-3-Super)作为基准参照,在同等测试条件下进行对比测试。
我们设计了三组测试任务:Token 效率基准、上下文窗口验证和 Function Calling 与结构化输出。
其中,Token 效率基准涵盖代码生成(4 道题)、Bug修复(4 道题)、文档摘要(3 道题)、逻辑推理(5 道题)和结构化输出(5 道题)五大场景,统计各模型的信息留存率与 Token 消耗。256K 的上下文窗口是 Elephant Alpha 的核心卖点之一。我们分别在 64K、128K、200K 三个长度下测试模型的信息召回能力。
Elephant Alpha 的表现如何呢?先看测试结果:
![]()
可以看到,Elephant Alpha 在评测人员收集的 4 个 Bug 修复任务上展现出显著优势,相对于 Qwen3.5 和 Nemotron-3-Super 成功修改通过 3 道的通过率,Elephant Alpha 修改后的代码全部通过测试。
更高的信息留存率之下,输出 Token 反而更少。Elephant Alpha 以 1,017 个 Token 完成了 Qwen3.5 和 Nemotron-3-Super 分别需要 1,539 和 1464 个 Token 才能达成的同等信息量任务,节省约 50%。在 AI 落地日益讲究 ROI 的当下,这个数字颇有分量。
上下文窗口验证方面,三者均实现了 100% 召回率。受限于测试环境,我们未能触及 256K 上限,但 200K 级别的稳定表现已经证明了基础能力的可靠性,足以胜任大部分任务场景。
最后,三者在 Function Calling 测试(纯python环境)中均触发工具调用,但都只完成了单步操作(搜索文件),未完成"读文件→分析→写入"的三步连贯操作。这一结果提示我们,当前的 Agent 能力边界仍需在具体环境中进一步探索。
▪测试二:Coding测试——工程能力的真实考验
太多模型在基础测试中表现亮眼,但一进入真实工程场景,立刻拉胯。因此我们决定给 Elephant Alpha 再上点强度。
我们使用开源的opencode工具,将 Elephant Alpha 放进了一个完整的项目开发流程中:创建一个具备 CRUD 能力的 RESTful API 服务,包含数据库模型设计、路由配置、错误处理和单元测试。
这项测试考察的是模型的 Coding 工程能力,不仅仅是写出片段式的代码,更在于是能否理解需求、设计架构、处理边界条件,并在出现问题时回溯修改。
Markdown
请实现一个可运行、可测试的 `Task` RESTful API 服务,要求包含:
- CRUD 接口:`POST /tasks`、`GET /tasks`、`GET /tasks/:id`、`PUT /tasks/:id`、`DELETE /tasks/:id`
- 数据模型字段:`id`、`title`、`description`、`status`、`priority`、`due_date`、`created_at`、`updated_at`
- 校验与错误处理
- 单元测试
- 项目结构说明与运行说明
约束:
- `title` 必填且不能为空
- `status` 仅允许 `pending` / `in_progress` / `done`
- `priority` 仅允许 `low` / `medium` / `high`
- 不存在资源返回 `404`
- 非法输入返回结构化 JSON 错误
- 必须先做需求分析和架构规划,再编码
- 如果测试失败或实现有问题,必须自行修复并说明原因
请输出完整项目,而不是零散代码片段。
先规划模块,然后逐步开发,最后测试。
展示你的工程化开发、测试与回溯修复能力。
先规划,再“各个击破”。Elephant Alpha 理解了“先规划后编码”的要求,在正式实现前先进行了需求拆解和模块设计,从数据模型、路由配置、校验器、控制器到测试框架,形成了清晰的MVC 架构。这说明它不是一上来就堆代码,这种工程化思维,已经成为了模型能在生产级任务中真正落地的门票。
![]()
遇到bug,坚决改正。模块测试过程中遇到了一些“插曲”,代码出现了 Python 版本兼容性问题(async 语法、PEP 604 联合类型写法等),而 Elephant Alpha 从报错信息中快速定位问题根源,并自主完成了代码修正,无需人工介入。
这种“遇到问题→自我修正”的闭环,在传统开发中往往意味着额外的 Token 消耗,Elephant Alpha 也不能免俗。但它的革新之处在于,更高的 Token 效率意味着它能在更紧凑的上下文中完成修正。对每一个环节的成本都如此砍下一刀,日积月累,不可小觑。
![]()
测试结束,不忘收个尾。Elephant Alpha 最终交付了一个包含11 个测试用例的完整项目,全部通过。它甚至还生成了清晰的项目结构说明和运行指南——从requirements.txt依赖管理到uvicorn启动命令,从安装到测试运行,一条龙完整交付。
对于工程师来说,这种“有始有终”的完成度已经达到了拿来即用的标准。
![]()
Elephant Alpha 在 Coding 场景下展现了三大优势:先规划后编码的工程思维、自主修正的回溯能力,以及最重要的,用更少Token完成同等任务的效率优势。对于需要将 AI 融入开发流程的团队而言,这三个特质缺一不可。
03
Token效率重塑AI评价坐标系
如果说过去的大模型竞争,是一场“谁的参数量更大、谁的 Benchmark 分数更高”的军备竞赛,那么 Elephant Alpha 的出现,则是为这场竞赛开辟了一个新的维度,“同样强悍的智能,但我比你更省”。
无法忽视的事实是,在 Agent 逐步靠近真实场景的今天,用户的 Token 账单也越发承压。保守估计,一次代码补全任务可能消耗几十 Token,一次多轮对话会烧掉数百,一个 Agent 任务跑下来,这个数字可能就飙升到了数千。当Token成为硬通货,高效就不再是锦上添花,而是核心竞争力。
值得一提的是,在英伟达 Nemotron 3 Super 的一份报告中,还特意强调了以蚂蚁此前开源的 Ling-flash-Base-2.0 和智谱的 GLM-4.5-Air-Base 做基准。
由此可见,“智效比”正在成为模型 Agent 场景的通用语言。此后人们不再问“一次生成质量有多高”,而是“每 Token 消耗能换来多少有效产出”。在这个坐标系下,能用 600 Token 说清楚的事,就不该浪费 800。
![]()
这场效率革命的影响,很快就会在产业链上下游爆发。
对开发者而言,更高的 Token 效率意味着更普惠的智能,它包括更低的调用成本、更快的响应速度、以及在生产环境中真正可接受的 ROI。当 AI 落地不再需要“烧钱换体验”,应用的渗透速度将以指数级增长。
而在用户侧,这场效率革命也指向了一种更可靠的 Agent。更少的 Token 消耗,将直接转化为更紧凑的上下文窗口、更低的幻觉风险、以及更稳定的多轮执行能力。只有当模型能在有限上下文中完成更多任务,“上下文膨胀”这个 Agent 落地最大的痛点,才真正有解。
在规模之外,当效率同样成为了模型价值的衡量维度,发生在模型层的争夺将真正迈上下一个台阶。
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.