网易首页 > 网易号 > 正文 申请入驻

全球OpenClaw用量第一的模型,竟然是中国的?(附实测)

0
分享至

大家好,我是袋鼠帝。

前两天刷 X 的时候,我看到一条日区帖子,上面说目前世界上最受欢迎的模型,是国产的 MiniMax M2.5。

而且它在 OpenClaw 中的使用率排名第一,在 OpenRouter 的总体使用率也是排名第一。


我第一反应是:真的?国产模型在海外这么吃得开?

有时候我真的,都快被评论区说的不自信了,他们总说国外的是香的,国内的不行。。。很少有评论能全面、客观的看待国内外模型。

随后我打开了 OpenRouter 的排行榜看了一眼。

https://openrouter.ai/rankings


卧槽,还真是!MiniMax-M2.5 在 OpenRouter 的用量可以说一骑绝尘,远超第二名,甚至是第二名的 1.5 倍还多。

PS:给不了解的朋友科普一下 OpenRouter。它是目前全球最大的 AI API 中转站,只需一个接口,就能无缝调用全球模型。

所以全世界大量的开发者都在使用 OpenRouter,同时,几乎所有的 AI 工具也都支持它的接入。

然后我又看了一下openrouter里面专门对openclaw的模型用量的统计,最近30天的排名如下:


一眼看过去,MiniMax-M2.5并没有排第一,是吧。

但是别忘了,MiniMax-M2.5是2月13号才发布的,所以我们得从13号开始统计才公平:

于是我从13号开始查看数据,并录了个屏丢给Gemini分析。

最后得出结论,MiniMax-M2.5确实是openclaw用量第一的大模型:

我自己也看了一下,最近10天左右,MiniMax-M2.5每天的使用量几乎都是第一


值得一提的是,OpenClaw 的创造者 Peter Steinberger 也在推文中多次安利 MiniMax-M2.5,可以说是非常推崇了。


MiniMax-M2.5 是 MiniMax 在除夕前刚发布的最新开源模型。

不过那会儿 AI 圈实在太卷了,神仙打架,又临近过年,所以我一直没来得及好好体验和实测。

趁这几天得空,我立马把它接入了 Claude Code 和我的 OpenClaw。

深度体验了几天之后,我不得不承认,它是真有东西。

在分享我这几天用它开发的案例之前,我还是先带大家看看 MiniMax-M2.5 到底升级了什么,有哪些参数值得我们关注(省流版)。

M2.5 这次主打的是"真实世界工作"。

它在编程、工具调用、搜索以及办公等生产力场景,都达到甚至刷新了行业的 SOTA(当前最高水平)。


比如在极其考验代码解决实际问题能力的 SWE-Bench Verified 榜单上,它拿到了 80.2% 的高分;

在多语言相关的任务 Multi-SWE-Bench 上,更是达到了 51.3%,位列第一。

在网页检索和工具调用的 BrowseComp 评测中,也取得了 76.3% 的好成绩。

最让我心动的是它的速度和成本。

M2.5 优化了模型对复杂任务的拆解能力,也降低了思考过程中的 token 消耗。

在 SWE-Bench Verified 测试中,M2.5 比上一个版本 M2.1 完成任务的速度快了 37%。

在 100 token/s 的情况下,M2.5 连续工作一小时只需花费 1 美金;在 50 token/s 的情况下,只需要 0.3 美金。

这让无限运行复杂 Agent 在成本上变得更可控。

对于每天疯狂消耗 Token 的开发者来说,简直是福音。

一、 算力自由:Coding Plan极速版

由于Claude Code和OpenClaw都是token消耗大户。

特别是 OpenClaw,目前的上下文管理做得还比较糙,经常把一堆没用的历史记录带进去,一跑起来花Token 如流水..

在接入 Claude Code 和 OpenClaw 之前,我果断去开了 MiniMax 的 Coding Plan。

https://platform.minimaxi.com/subscribe/coding-plan

本来我最开始开的是 Max 套餐,也就是 119 元/月的那个。


但后来我翻 MiniMax 文档的时候发现了一个事儿:


我之前一直担心极速版的 M2.5-highspeed 是不是为了速度阉割了智商。

没想到是能力不变,速度提升 。

对于我来说,时间就是金钱,OPC(一人公司)太需要效率了。

好在支持直接补差价升级。因为我已经用了几天 Max 套餐,所以补了 95 块钱的差价,直接切到了极速版订阅。


换上 MiniMax-M2.5-highspeed 之后,那个感觉真爽!

本来原套餐里的 M2.5 速度就不慢,但换上 highspeed 版本后,能非常直观的感受到变快。

我的体感是,简单任务的生成速度快了 1.5 倍,复杂推理和重构代码的任务快了 2 倍左右。

二、实战:Claude Code+M2.5

先说说接入 Claude Code 这块。

我这个人比较懒,现在已经不想手动去敲命令安装 Claude Code 和配置模型。

于是,我先直接把我的 OpenClaw 模型换成了 MiniMax-M2.5,然后找到了 MiniMax 的 Claude Code 官方接入文档。

https://platform.minimaxi.com/docs/coding-plan/claude-code

我把文档直接丢给龙虾(OpenClaw),对它说:帮我照着这个文档,把 Claude Code 安装好,并配置好模型。

搭载M2.5的龙虾很快就把 Claude Code 安排明白了。它还顺便根据文档的推荐,帮我安装了 cc-switch。


PS:cc-switch 是一个开源项目,专门用来给各种 AI 工具一键切换模型的。目前在 GitHub 上已经有 24K Star 了,非常火。

我看了一下官方文档,MiniMax 的 API 也支持图像理解和搜索 MCP,随即也把它接了进去。


这个安装,我同样是把网页丢给了搭配M2.5的Claude Code。

很快就搞定了


万事俱备,该干活了~

我这两天用Claude Code + M2.5开发了个「知网论文引用采集插件」

起因是朋友最近在写硕士论文,他跟我疯狂吐槽知网的反人类设计:

下载完 PDF,回头写参考文献还得重新搜一遍找引用格式,有几篇论文引用,就要回头找几遍。


最终顺利用M2.5,获得了朋友的认可


如果是几十篇论文,每一篇论文都要重新打开知网,找到那篇论文的页面,找到引用,再复制到自己论文里面,确实是一项还挺麻烦的机械性工作。

M2.5 具备强大的编程能力(像架构师一样思考)和复杂的Web搜索、Excel处理能力。

于是让它帮我做一个知网收集文献引用的插件,省去这种烦恼

M2.5内化了spec能力,会先以架构师的视角主动拆解功能、结构,进行设计,并指定计划。

简单来说,Spec 能力就是先画图纸再施工的全局规划能力:

以前的 AI 听到需求往往就直接盲目敲代码,遇到复杂任务很容易烂尾。而具备 Spec 能力的 AI 就像一位经验丰富的架构师,在真正动手前,会先把功能怎么拆、逻辑怎么 连、界面长什么样都提前盘算清楚,想明白了再动手写代码。

这样更容易一次性开发成功,开发的项目也更规范,更利于后续维护和迭代

M2.5把模块划分为四个,分别是

1. manifest.json - 插件配置文件(MV3)

2. content.js - 内容脚本,负责DOM监听和引文提取

3. popup.html - 弹窗界面

4. popup.js - 弹窗逻辑(导出CSV、清空记录)

考虑得也很全面


据说M2.5在Word、PPT、Excel等等办公高阶场景的能力获得了显著提升,今天一看,果然如此。

这绝对是挨过业务毒打的老手才有肌肉记忆:


确认架构、计划没问题后,我让它开始动手写代码。

解决了几个关键的bug后,M2.5就做出来了我的理想版本。

点开文献,就能看见它给我加的按钮,点击按钮提示成功



具体的插件页面,M2.5设计得不错,完全满足需求


点击导出CSV总表就ok啦


有需要这个知网插件的朋友,可以在我公众号后台回复:"知网插件" ,即可免费获取安装包。

尝到了甜头之后,我又用它搞了几个实用的项目。

我最近经常用「番茄小说」看书,每当看到一些很有感触的句子,我都习惯性地划线收藏。

但等到写文章或者做知识管理真正要用的时候,总有种“在哪里看过”,却死活想不起原话的无力感。

为了找这句话,我不得不再打开番茄,在一堆历史阅读记录和划线笔记里苦苦翻找,极其割裂且低效。

所以我就想,干脆自己动手量身打造一个专属于个人的读书站点。

它是一个没有平台壁垒的“定制版阅读器”,能完美契合我的阅读习惯。

后续我想看什么书,直接下载导入;看到精彩的段落,我想怎么处理就怎么处理:比如一键划线同步到飞书,或者直接丢进 FastGPT 的个人知识库,又或者投喂给龙虾(OpenClaw)当专属语料。整个阅读和知识消化的闭环,全部由我随心所欲地定制。

不过当下最重要的是开发一个MVP出来,得先满足能读书的需求。

M2.5 + Claude Code做得很不错,开发效率快,bug也少,修复起来贼迅速。

看看这架构设计,做得很棒,非常详细、全面(这架构设计做得,感觉跟Claude Opus很像了):

最后开发出来是一个全栈应用

带注册、登录功能是基操:


然后有书城,我的书库,可以自由上传,删除图书。



看电子书,肯定要在手机上最方便了,不过一开始不适配移动端

但一句手机端适配,就可以使其调整到位(无需过多废话)

最后就实现了干净的双端适配的UI界面:

第一次在自己开发工具上看电子书,这感觉还真挺奇妙的~



然后我又用M2.5尝试做了一个 markdown 文件阅读器 。

支持本地 .md 文件的拖拽上传,能自动渲染出不错排版。


最不一样的地方是,这个阅读器是个桌面应用,得先下载压缩包(是的,还顺带开发了个网站,提供应用的下载)。


下载解压之后通过双击exe打开使用


搞定这些阅读类的工具之后,我又做了一个数据可视化网站

它纯粹是我为了处理手头的数据临时起意做的。

不过你别说,用M2.5 直出的这个网站麻雀虽小五脏俱全,不仅支持一键上传复杂数据,还能导出 PNG 和 PDF 图表。

这都得益于模型内化的spec能力,开发前会做好架构,功能设计。

再谈谈把 M2.5 接入 OpenClaw 后的体验。


我把 OpenClaw 的模型换成 MiniMax-M2.5-highspeed 之后,最大的感受是:它变得更加干练了。

以前用其他模型,它在执行任务前,总喜欢啰里啰嗦地说一大堆正确的废话。

M2.5 在回复上明显会更言简意赅,直奔主题。


而且因为极速版的加持,回复和执行速度也大幅提升。

当我让它去帮我总结一堆杂乱的网页资料,或者帮我写个Skills啥的,在保证准确度的前提下,速度也明显提升,让整个 AI 秘书的工作效率倍增。

同时,给大家看一下,在Claude Code和OpenClaw里面,token消耗动辄就百万、千万... 但是却没有产生额外费用。


在CC和龙虾这种吞吐token量贼大的应用里面,M2.5的Coding Plan的价格度速优势还是很明显的。

我相信大家是在价格 + 速度 + 性能 三者综合考量后选择的MiniMax-M2.5,所以它才会在OpenRouter和OpenClaw成为使用量第一的模型。

「最后」

这几天密集地体验下来,我感觉MiniMax-M2.5速度极快,逻辑思维强,同时内化了spec能力,会像架构师一样思考、设计,这块能力在开发复杂系统时非常实用。

而且它适配多种开发语言,不会局限于某一两种常见的语言。

所以开发各种类型的应用,比如Windows桌面应用、浏览器插件等,都会更加游刃有余。

可惜的是,它目前还不支持多模态,不支持视觉理解。如果在接下来的版本中能把这块短板补上,那就真的完美了。

还记得第一次了解 MiniMax,是在 24 年初。

那时候他们团队找到我,想邀请我参与一个开发者计划(就是那种可以免费送开发者 token 的活动)。

那时候我只是觉得,这个名字挺有意思。

谁能想到,短短两年时间,MiniMax 已经从一个籍籍无名的小公司,成长为了中国 AI 界的参天大树,甚至已经成功上市。

真的,我非常看好国产 AI 的未来,并且在基模上面,反而是这些后起之秀的公司做得更好。

现在国产LLM(大语言模型)和国外LLM的差距已经很小了,甚至很多老外更喜欢使用能力又强,速度又快,价格还便宜的中国模型。

我非常期待国产LLM全面领先的那天~

如果你觉得这篇文章对你有启发,记得点赞、收藏,分享给身边有需要的朋友。

让我们一起,在新的一年里,效率起飞,马到成功!

我是袋鼠帝,一个致力于帮你把AI变成生产力的博主。我们下期见。

能看到这里的都是凤毛麟角的存在!

如果觉得不错,随手点个赞、在看、转发三连吧~

如果想第一时间收到推送,也可以给我个星标⭐

谢谢你耐心看完我的文章~

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
租用无人机运棺材上山土葬,无人机运输从业者:价格一万出头,一般运送的棺材约七八百斤,云贵川需求多

租用无人机运棺材上山土葬,无人机运输从业者:价格一万出头,一般运送的棺材约七八百斤,云贵川需求多

观威海
2026-03-06 14:23:13
陈幸同击败陈熠获世乒赛资格,国乒3男3女名单樊振东在列

陈幸同击败陈熠获世乒赛资格,国乒3男3女名单樊振东在列

三秋体育
2026-03-06 19:28:19
中日关系跌至冰点,日企却用55.5%的暴涨,打了高市早苗一记耳光

中日关系跌至冰点,日企却用55.5%的暴涨,打了高市早苗一记耳光

李健政观察
2026-03-06 10:52:22
黄仁勋:仅用3周 OpenClaw 超越 Linux 30年!

黄仁勋:仅用3周 OpenClaw 超越 Linux 30年!

EETOP半导体社区
2026-03-06 11:36:41
TOP14位身高170以上的女神,有颜有灯有演技

TOP14位身高170以上的女神,有颜有灯有演技

素然追光
2026-01-02 02:45:02
79比98狂输19分!女篮争冠热门惨遭爆冷:没张子宇冲冠悬了?

79比98狂输19分!女篮争冠热门惨遭爆冷:没张子宇冲冠悬了?

篮球快餐车
2026-03-06 01:58:58
美伊打了足足6天,朝鲜突然发射巡航导弹,特朗普收到一封挑战书

美伊打了足足6天,朝鲜突然发射巡航导弹,特朗普收到一封挑战书

军机Talk
2026-03-05 18:22:21
阿联酋考虑冻结伊朗资产!此举或重创伊朗经济命脉

阿联酋考虑冻结伊朗资产!此举或重创伊朗经济命脉

财联社
2026-03-06 17:15:05
浙江17岁高中生率先发现新物种,联合发文登上SCI,当事人回应质疑:家长是普通人没人脉,未来想从事生科方向专业

浙江17岁高中生率先发现新物种,联合发文登上SCI,当事人回应质疑:家长是普通人没人脉,未来想从事生科方向专业

潇湘晨报
2026-03-06 13:00:40
法国和浙江同为6000万人口,2025年法国创3万亿美元GDP,浙江呢?

法国和浙江同为6000万人口,2025年法国创3万亿美元GDP,浙江呢?

八斗小先生
2026-02-28 18:56:17
不可错过!3月6日早上09:00比赛!中央5套CCTV5、CCTV5+直播表

不可错过!3月6日早上09:00比赛!中央5套CCTV5、CCTV5+直播表

林子说事
2026-03-06 10:11:22
两会第一天,48岁王励勤的“采访”火了,孙颖莎的心愿恐将达成

两会第一天,48岁王励勤的“采访”火了,孙颖莎的心愿恐将达成

小徐讲八卦
2026-03-06 06:05:12
伊朗导弹击中耶路撒冷,驻有美军基地多国传出爆炸声

伊朗导弹击中耶路撒冷,驻有美军基地多国传出爆炸声

界面新闻
2026-03-02 15:09:03
深圳南山再添一所新高校!今年5月正式启用!

深圳南山再添一所新高校!今年5月正式启用!

深圳晚报
2026-03-06 16:39:10
艾滋病新增130万!很多人中招很冤枉!在外“5不碰”一定要记死

艾滋病新增130万!很多人中招很冤枉!在外“5不碰”一定要记死

今朝牛马
2025-12-31 19:31:04
阿里决绝“干掉”林俊旸,一场关于千问“集体叛逃”的误读

阿里决绝“干掉”林俊旸,一场关于千问“集体叛逃”的误读

一视财经
2026-03-05 21:21:03
老挝待了三个月,我被问懵了:“你们中国人是不是都没有家?”

老挝待了三个月,我被问懵了:“你们中国人是不是都没有家?”

天下霸奇
2026-02-24 07:59:23
林青霞亲口爆料:当年我全裸给他看,他却吓得扭头就跑!

林青霞亲口爆料:当年我全裸给他看,他却吓得扭头就跑!

达文西看世界
2026-03-04 15:07:30
为了巴结英日,撕毁中国百亿投资项目,被耍后还想和中国再续前缘

为了巴结英日,撕毁中国百亿投资项目,被耍后还想和中国再续前缘

流史岁月
2026-02-26 16:45:04
货到了客户却被炸死了!中东战事重创义乌,500万迪拜订单失联

货到了客户却被炸死了!中东战事重创义乌,500万迪拜订单失联

温读史
2026-03-06 14:09:39
2026-03-06 22:00:49
袋鼠帝 incentive-icons
袋鼠帝
持续分享AI实践干货,走超级个体崛起之路
55文章数 56关注度
往期回顾 全部

科技要闻

独家|除夕加班、毫无黑料!林俊旸无奈离场

头条要闻

媒体:成本2万美元 伊朗的"穷人巡航导弹"把美国打心疼

头条要闻

媒体:成本2万美元 伊朗的"穷人巡航导弹"把美国打心疼

体育要闻

跑了24年,他终于成为英超“最长的河”

娱乐要闻

周杰伦社交媒体晒昆凌,夫妻感情稳定

财经要闻

关于经济、股市等,五部门都说了啥?

汽车要闻

逃离ICU,上汽通用“止血”企稳

态度原创

本地
亲子
教育
公开课
军事航空

本地新闻

食味印象|一口入魂!康乐烤肉串起千年丝路香

亲子要闻

中韩双胞胎萌娃回国第一天,简直太幸福了

教育要闻

高考地理中的冲淤原理

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

伊朗:使用无人机击中美军"林肯"号航母

无障碍浏览 进入关怀版