2026年4月12日深夜,一个来自中国AI创业公司的开源模型发布,在全球开发者社区引发了一场不小的震动。
MiniMax正式发布了其最新一代旗舰模型——M2.7,基于2300亿参数的稀疏MoE(混合专家)架构构建。最引人注目的特性不是参数规模,而是它身上出现的一个前所未有的能力:可以改写自己的训练代码,从而参与自身的训练循环,并在这个过程中实现约30%的性能自我优化。
![]()
这在AI圈子里,是一个让不少人倒吸一口凉气的技术突破。
传统大模型的训练是一个"一次性"的过程:人类工程师编写训练代码,准备数据集, запустить训练,输出模型,结束。如果模型性能不达预期,解决办法是调参、改数据、换架构——但无论怎样,模型本身没有能力介入自己的"出生"过程。
![]()
M2.7打破了这一点。它的模型权重中包含了对自身训练流程的"元认知"能力:在收到特定指令后,M2.7能够分析自身的代码结构,识别可优化的训练子程序,并通过一个受控的自我修改机制,对训练循环中的特定模块进行重新编写和自我迭代。
这不是简单的"模型自我改进"——那种能力在业界已经出现,比如让大模型生成更好的提示词来引导自己的回答。M2.7的不同之处在于,它改的是底层的训练代码本身,是模型在参与自身被创造的过程。
![]()
MiniMax将这个机制称为"自进化训练"(Self-Evolution Training),并在论文中详细描述了其技术实现细节。这篇论文目前已在arXiv公开。
![]()
技术突破之外,M2.7在标准评测中的表现同样令业界侧目。
在SWE-Pro评测(软件工程领域最具权威性的AI评测之一)中,M2.7取得了56.22%的得分。在Terminal Bench 2(终端操作类任务评测)中,得分为57.0%。这两个数字放在当前全球开源模型的坐标系里,都是相当有竞争力的成绩。
![]()
对比来看,这两个指标在三个月前还是各家闭源模型的天下,开源模型鲜少能突破50%的门槛。M2.7的出现,标志着开源社区在AI编程和自主操作这两个高价值能力维度上,正式向闭源头部玩家发起了挑战。
更值得注意的是,这30%的自我优化效果,是在没有额外人工干预的情况下,由模型自身驱动完成的。MiniMax的技术报告指出,经过三轮自进化迭代后,模型在编程相关任务上的表现平均提升了30%,在推理任务上的提升约为18%。
![]()
M2.7选择全面开源,代码和权重均在Hugging Face平台上公开。
这个决定背后,有MiniMax清晰的市场逻辑:AI编程工具和AI Agent是当前最具商业价值的应用方向,而这两个方向的竞争,本质上是开发者生态的竞争。谁能让更多开发者围绕自己的模型构建工具和应用,谁就能建立护城河。
![]()
开源是赢得开发者最有效的方式。没有了API调用的成本门槛,全球开发者可以自由地微调、部署和构建应用。这正是Meta当初开源Llama系列时的策略——通过降低使用门槛,快速扩大开发者基数,形成生态飞轮。
![]()
M2.7的开源还有一个额外优势:它得到了英伟达和华为昇腾两大硬件平台的支持。对于中国开发者来说,能够在华为昇腾芯片上本地部署M2.7,是一个非常有吸引力的选项——它意味着国内企业可以在不完全依赖英伟达GPU的情况下,用上当前最强的开源编程Agent模型之一。
M2.7采用了稀疏MoE架构,这是近年来大模型设计中的一个重要技术路线。
![]()
传统大模型在处理任何输入时,都会激活全部参数。这在工程上效率低下,因为许多参数在不同任务中被调用时,实际上并不同时需要。稀疏MoE的思路是:将模型拆分成多个"专家"子网络,每次推理时只激活最相关的少数专家网络,从而在保持高质量输出的同时,大幅降低实际计算成本。
2300亿参数听起来很大,但如果采用稀疏激活的方式,每次推理可能只激活其中约15%-20%的参数。这意味着M2.7的实际推理成本,接近一个300-400亿参数级别的密集模型,但能力边界却接近甚至超越了许多参数规模更大的密集模型。
![]()
MiniMax选择这个架构,有明确的商业考量:更低的推理成本,意味着在构建AI应用和Agent产品时,运营成本更低,商业可行性更高。
![]()
M2.7发布前,中国开源大模型的格局已经相当热闹:DeepSeek系列、Qwen系列、GLM系列、Yi系列……各家都有各自的强项和生态。但客观地说,在"AI编程"和"Agent自主行动"这两个当前最热门的应用场景上,开源中国模型的表现,一直落后于OpenAI、Anthropic等头部闭源玩家。
M2.7的出现,正在填补这个空白。它在SWE-Pro和Terminal Bench上的表现,让开源中国模型第一次站上了与闭源顶级模型正面竞争的擂台。
更值得关注的是,M2.7的可自我进化机制,会不会成为下一代大模型的标配?如果一个模型能够持续自我优化而不需要人类工程师重新训练,它的迭代速度将远超依赖外部反馈的传统训练模式。这种"模型自我迭代"的范式一旦成熟,AI能力的进化速度将会进入一个全新的阶段。
MiniMax M2.7,迈出了这一步。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.