来源:云头条
2026 年 4 月 28 日,小米 MiMo 宣布,MiMo - V2.5 系列正式开源。
![]()
此次开放采用 MIT License,支持商业部署、继续训练和微调,不需要额外授权。
Weights: https://huggingface.co/collections/XiaomiMiMo/mimo-v25
Blog: https://mimo.xiaomi.com/index#blog
![]()
这次开源的重点不是单一模型,而是两条路线同时推出。
![]()
![]()
MiMo-V2.5-Pro 面向复杂 Agent、代码生成和长任务执行;
MiMo-V2.5 则是原生全模态模型,支持文本、图像、视频和音频理解。两款模型都支持最高 1M token 上下文窗口。
MiMo-V2.5-Pro 是 MoE 语言模型,总参数 1.02T,激活参数 42B,官方定位为目前小米 MiMo 最强模型,重点服务复杂软件工程、长周期 Agent 任务和多轮工具调用。
![]()
MiMo-V2.5 则采用 310B 总参数、15B 激活参数架构,并加入视觉编码器和音频编码器,覆盖更通用的多模态 Agent 场景。
小米这次最想强调的是“Agent 效率”。
小米官方数据显示,MiMo-V2.5-Pro 在 ClawEval 上达到约 64% Pass^3,单条任务轨迹约消耗 70K token;在接近同一表现区间的模型中,官方称其 token 消耗比 Claude Opus 4.6、Gemini 3.1 Pro、GPT-5.4 低约 40% 至 60%。
![]()
小米不只是比拼模型分数,也在把“完成任务的 token 成本”推到台前。
随着 AI 编程工具、Agent 平台和企业自动化任务逐渐转向按量计费,模型能不能少花 token 完成同样任务,直接关系到实际使用成本。
小米 MiMo-V2.5-Pro 选择将复杂 Agent 和代码任务作为主战场,显然是冲着企业级 Agent 和 AI 编程场景来的。
小米正在将大模型从“展示能力”推向“可部署、可微调、可商用”的开发者生态。
MIT License、1M 上下文、MoE 架构、Agent 优化和多模态能力叠加在一起,小米正在抢占下一代 Agent 基础设施的位置。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.