大家好,我是袋鼠帝。
前两天刷 X 的时候,我看到一条日区帖子,上面说目前世界上最受欢迎的模型,是国产的 MiniMax M2.5。
而且它在 OpenClaw 中的使用率排名第一,在 OpenRouter 的总体使用率也是排名第一。
![]()
我第一反应是:真的?国产模型在海外这么吃得开?
有时候我真的,都快被评论区说的不自信了,他们总说国外的是香的,国内的不行。。。很少有评论能全面、客观的看待国内外模型。
随后我打开了 OpenRouter 的排行榜看了一眼。
https://openrouter.ai/rankings
![]()
卧槽,还真是!MiniMax-M2.5 在 OpenRouter 的用量可以说一骑绝尘,远超第二名,甚至是第二名的 1.5 倍还多。
PS:给不了解的朋友科普一下 OpenRouter。它是目前全球最大的 AI API 中转站,只需一个接口,就能无缝调用全球模型。
所以全世界大量的开发者都在使用 OpenRouter,同时,几乎所有的 AI 工具也都支持它的接入。
然后我又看了一下openrouter里面专门对openclaw的模型用量的统计,最近30天的排名如下:
![]()
一眼看过去,MiniMax-M2.5并没有排第一,是吧。
但是别忘了,MiniMax-M2.5是2月13号才发布的,所以我们得从13号开始统计才公平:
于是我从13号开始查看数据,并录了个屏丢给Gemini分析。
最后得出结论,MiniMax-M2.5确实是openclaw用量第一的大模型:
我自己也看了一下,最近10天左右,MiniMax-M2.5每天的使用量几乎都是第一
![]()
值得一提的是,OpenClaw 的创造者 Peter Steinberger 也在推文中多次安利 MiniMax-M2.5,可以说是非常推崇了。
![]()
MiniMax-M2.5 是 MiniMax 在除夕前刚发布的最新开源模型。
不过那会儿 AI 圈实在太卷了,神仙打架,又临近过年,所以我一直没来得及好好体验和实测。
趁这几天得空,我立马把它接入了 Claude Code 和我的 OpenClaw。
深度体验了几天之后,我不得不承认,它是真有东西。
在分享我这几天用它开发的案例之前,我还是先带大家看看 MiniMax-M2.5 到底升级了什么,有哪些参数值得我们关注(省流版)。
M2.5 这次主打的是"真实世界工作"。
它在编程、工具调用、搜索以及办公等生产力场景,都达到甚至刷新了行业的 SOTA(当前最高水平)。
![]()
比如在极其考验代码解决实际问题能力的 SWE-Bench Verified 榜单上,它拿到了 80.2% 的高分;
在多语言相关的任务 Multi-SWE-Bench 上,更是达到了 51.3%,位列第一。
在网页检索和工具调用的 BrowseComp 评测中,也取得了 76.3% 的好成绩。
最让我心动的是它的速度和成本。
M2.5 优化了模型对复杂任务的拆解能力,也降低了思考过程中的 token 消耗。
在 SWE-Bench Verified 测试中,M2.5 比上一个版本 M2.1 完成任务的速度快了 37%。
在 100 token/s 的情况下,M2.5 连续工作一小时只需花费 1 美金;在 50 token/s 的情况下,只需要 0.3 美金。
这让无限运行复杂 Agent 在成本上变得更可控。
对于每天疯狂消耗 Token 的开发者来说,简直是福音。
一、 算力自由:Coding Plan极速版
由于Claude Code和OpenClaw都是token消耗大户。
特别是 OpenClaw,目前的上下文管理做得还比较糙,经常把一堆没用的历史记录带进去,一跑起来花Token 如流水..
在接入 Claude Code 和 OpenClaw 之前,我果断去开了 MiniMax 的 Coding Plan。
https://platform.minimaxi.com/subscribe/coding-plan
本来我最开始开的是 Max 套餐,也就是 119 元/月的那个。
![]()
但后来我翻 MiniMax 文档的时候发现了一个事儿:
![]()
我之前一直担心极速版的 M2.5-highspeed 是不是为了速度阉割了智商。
没想到是能力不变,速度提升 。
对于我来说,时间就是金钱,OPC(一人公司)太需要效率了。
好在支持直接补差价升级。因为我已经用了几天 Max 套餐,所以补了 95 块钱的差价,直接切到了极速版订阅。
![]()
换上 MiniMax-M2.5-highspeed 之后,那个感觉真爽!
本来原套餐里的 M2.5 速度就不慢,但换上 highspeed 版本后,能非常直观的感受到变快。
我的体感是,简单任务的生成速度快了 1.5 倍,复杂推理和重构代码的任务快了 2 倍左右。
二、实战:Claude Code+M2.5
先说说接入 Claude Code 这块。
我这个人比较懒,现在已经不想手动去敲命令安装 Claude Code 和配置模型。
于是,我先直接把我的 OpenClaw 模型换成了 MiniMax-M2.5,然后找到了 MiniMax 的 Claude Code 官方接入文档。
https://platform.minimaxi.com/docs/coding-plan/claude-code
我把文档直接丢给龙虾(OpenClaw),对它说:帮我照着这个文档,把 Claude Code 安装好,并配置好模型。
搭载M2.5的龙虾很快就把 Claude Code 安排明白了。它还顺便根据文档的推荐,帮我安装了 cc-switch。
![]()
PS:cc-switch 是一个开源项目,专门用来给各种 AI 工具一键切换模型的。目前在 GitHub 上已经有 24K Star 了,非常火。
我看了一下官方文档,MiniMax 的 API 也支持图像理解和搜索 MCP,随即也把它接了进去。
![]()
这个安装,我同样是把网页丢给了搭配M2.5的Claude Code。
很快就搞定了
![]()
万事俱备,该干活了~
我这两天用Claude Code + M2.5开发了个「知网论文引用采集插件」
起因是朋友最近在写硕士论文,他跟我疯狂吐槽知网的反人类设计:
下载完 PDF,回头写参考文献还得重新搜一遍找引用格式,有几篇论文引用,就要回头找几遍。
![]()
最终顺利用M2.5,获得了朋友的认可
![]()
如果是几十篇论文,每一篇论文都要重新打开知网,找到那篇论文的页面,找到引用,再复制到自己论文里面,确实是一项还挺麻烦的机械性工作。
M2.5 具备强大的编程能力(像架构师一样思考)和复杂的Web搜索、Excel处理能力。
于是让它帮我做一个知网收集文献引用的插件,省去这种烦恼
M2.5内化了spec能力,会先以架构师的视角主动拆解功能、结构,进行设计,并指定计划。
简单来说,Spec 能力就是先画图纸再施工的全局规划能力:
以前的 AI 听到需求往往就直接盲目敲代码,遇到复杂任务很容易烂尾。而具备 Spec 能力的 AI 就像一位经验丰富的架构师,在真正动手前,会先把功能怎么拆、逻辑怎么 连、界面长什么样都提前盘算清楚,想明白了再动手写代码。
这样更容易一次性开发成功,开发的项目也更规范,更利于后续维护和迭代
M2.5把模块划分为四个,分别是
1. manifest.json - 插件配置文件(MV3)
2. content.js - 内容脚本,负责DOM监听和引文提取
3. popup.html - 弹窗界面
4. popup.js - 弹窗逻辑(导出CSV、清空记录)
考虑得也很全面
![]()
据说M2.5在Word、PPT、Excel等等办公高阶场景的能力获得了显著提升,今天一看,果然如此。
这绝对是挨过业务毒打的老手才有肌肉记忆:
![]()
确认架构、计划没问题后,我让它开始动手写代码。
解决了几个关键的bug后,M2.5就做出来了我的理想版本。
点开文献,就能看见它给我加的按钮,点击按钮提示成功
![]()
![]()
具体的插件页面,M2.5设计得不错,完全满足需求
![]()
点击导出CSV总表就ok啦
![]()
有需要这个知网插件的朋友,可以在我公众号后台回复:"知网插件" ,即可免费获取安装包。
尝到了甜头之后,我又用它搞了几个实用的项目。
我最近经常用「番茄小说」看书,每当看到一些很有感触的句子,我都习惯性地划线收藏。
但等到写文章或者做知识管理真正要用的时候,总有种“在哪里看过”,却死活想不起原话的无力感。
为了找这句话,我不得不再打开番茄,在一堆历史阅读记录和划线笔记里苦苦翻找,极其割裂且低效。
所以我就想,干脆自己动手量身打造一个专属于个人的读书站点。
它是一个没有平台壁垒的“定制版阅读器”,能完美契合我的阅读习惯。
后续我想看什么书,直接下载导入;看到精彩的段落,我想怎么处理就怎么处理:比如一键划线同步到飞书,或者直接丢进 FastGPT 的个人知识库,又或者投喂给龙虾(OpenClaw)当专属语料。整个阅读和知识消化的闭环,全部由我随心所欲地定制。
不过当下最重要的是开发一个MVP出来,得先满足能读书的需求。
M2.5 + Claude Code做得很不错,开发效率快,bug也少,修复起来贼迅速。
看看这架构设计,做得很棒,非常详细、全面(这架构设计做得,感觉跟Claude Opus很像了):
最后开发出来是一个全栈应用
带注册、登录功能是基操:
![]()
然后有书城,我的书库,可以自由上传,删除图书。
![]()
![]()
看电子书,肯定要在手机上最方便了,不过一开始不适配移动端
但一句手机端适配,就可以使其调整到位(无需过多废话)
最后就实现了干净的双端适配的UI界面:
第一次在自己开发工具上看电子书,这感觉还真挺奇妙的~
![]()
![]()
然后我又用M2.5尝试做了一个 markdown 文件阅读器 。
支持本地 .md 文件的拖拽上传,能自动渲染出不错排版。
![]()
最不一样的地方是,这个阅读器是个桌面应用,得先下载压缩包(是的,还顺带开发了个网站,提供应用的下载)。
![]()
下载解压之后通过双击exe打开使用
![]()
搞定这些阅读类的工具之后,我又做了一个数据可视化网站。
它纯粹是我为了处理手头的数据临时起意做的。
不过你别说,用M2.5 直出的这个网站麻雀虽小五脏俱全,不仅支持一键上传复杂数据,还能导出 PNG 和 PDF 图表。
这都得益于模型内化的spec能力,开发前会做好架构,功能设计。
再谈谈把 M2.5 接入 OpenClaw 后的体验。
![]()
我把 OpenClaw 的模型换成 MiniMax-M2.5-highspeed 之后,最大的感受是:它变得更加干练了。
以前用其他模型,它在执行任务前,总喜欢啰里啰嗦地说一大堆正确的废话。
M2.5 在回复上明显会更言简意赅,直奔主题。
![]()
而且因为极速版的加持,回复和执行速度也大幅提升。
当我让它去帮我总结一堆杂乱的网页资料,或者帮我写个Skills啥的,在保证准确度的前提下,速度也明显提升,让整个 AI 秘书的工作效率倍增。
同时,给大家看一下,在Claude Code和OpenClaw里面,token消耗动辄就百万、千万... 但是却没有产生额外费用。
![]()
在CC和龙虾这种吞吐token量贼大的应用里面,M2.5的Coding Plan的价格度速优势还是很明显的。
我相信大家是在价格 + 速度 + 性能 三者综合考量后选择的MiniMax-M2.5,所以它才会在OpenRouter和OpenClaw成为使用量第一的模型。
「最后」
这几天密集地体验下来,我感觉MiniMax-M2.5速度极快,逻辑思维强,同时内化了spec能力,会像架构师一样思考、设计,这块能力在开发复杂系统时非常实用。
而且它适配多种开发语言,不会局限于某一两种常见的语言。
所以开发各种类型的应用,比如Windows桌面应用、浏览器插件等,都会更加游刃有余。
可惜的是,它目前还不支持多模态,不支持视觉理解。如果在接下来的版本中能把这块短板补上,那就真的完美了。
还记得第一次了解 MiniMax,是在 24 年初。
那时候他们团队找到我,想邀请我参与一个开发者计划(就是那种可以免费送开发者 token 的活动)。
那时候我只是觉得,这个名字挺有意思。
谁能想到,短短两年时间,MiniMax 已经从一个籍籍无名的小公司,成长为了中国 AI 界的参天大树,甚至已经成功上市。
真的,我非常看好国产 AI 的未来,并且在基模上面,反而是这些后起之秀的公司做得更好。
现在国产LLM(大语言模型)和国外LLM的差距已经很小了,甚至很多老外更喜欢使用能力又强,速度又快,价格还便宜的中国模型。
我非常期待国产LLM全面领先的那天~
如果你觉得这篇文章对你有启发,记得点赞、收藏,分享给身边有需要的朋友。
让我们一起,在新的一年里,效率起飞,马到成功!
我是袋鼠帝,一个致力于帮你把AI变成生产力的博主。我们下期见。
能看到这里的都是凤毛麟角的存在!
如果觉得不错,随手点个赞、在看、转发三连吧~
如果想第一时间收到推送,也可以给我个星标⭐
谢谢你耐心看完我的文章~
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.