Hello大家好呀!最近使用Claude Code编程,结合Skills,完成一些新的项目,也趁此机会,测试了国产模型编程方面的效果。结合我自己的一些直观感受,聊一聊国产模型Coding Plan怎么选。
需要注意,下面仅是我的主观感受,没有专门去设计测试指标,拿数据之类的。我购买了所有支持coding plan的最低价套餐用来测试,我的主要编程工具是claude code,如果以Claude Opus 4.6为10分标准,我会根据自己的体验,给这些coding plan里支持的国产打分。下面的结论,仅从我自己的编程场景得到结论,不一定全对,仅做参考。
下面,就让我们来看看,国内各个厂商提供的Coding Plan套餐,哪家最能打。
GLM
最早在国内学习海外模型提供Coding Plan,并通过社媒和github大量推广,在其上市前形成了较好的社区反应。但是,在其上市后,该计划的缺点也暴露出来,主要有两点,1是该计划被严重超售(现在已改变了销售策略来应对),导致响应速度降低,2是官方未标明限频,在超售情况下,导致使用中经常返回空响应或提示访问受限,这让人非常难受,因为你购买了官方的套餐,仍然面临和其他免费编程工具(如opencode或trae)一样的超频排队,让人很抓毛。
Lite套餐,40元/月,包含每 5 小时最多约 120 次 prompts。官方没有公开次数计算,我个人猜测是基于messages中的信息来进行判断。在后台,可以看到每5个小时的用量情况。5小时后用量重置。
再说下模型,GLM的coding plan中,仅支持glm-4.7、glm-4.6、glm-4.5和glm-4.5-air,不过大部分情况下,我们都会使用glm-4.7。
glm-4.7的编程效果,就我个人的直观感受,超过国内其他所有国产模型,包括最新的kimi-k2.5。它在完成单一目标的任务时,可以平替claude模型,但是在一些涉及面较广的任务中,往往会遗漏细节,需要多轮补充。如果要打分,我给的分数为7分。
MiniMax
作为国内最成功的模型厂商之一,发布MiniMax M2.1之后,获得了很多开发者的好感。虽然MiniMax之前一直在多媒体生成领域保持领先,但是在大语言模型,特别是代码模型领域几乎没有听闻什么消息,此次突然凭借M系列模型强势入局,体现了它的野心。
Starter套餐,29元/月,包含每5小时40prompts。
该计划说明中,没有明确说明只支持MiniMax-M2.1模型,但是它只列出了该模型。
M2.1的编程效果,我的体验是在有较为明确的指令下,它也能完成我的目标,但是在遗漏细节方面,比glm-4.7还要糟糕。总体来说,我给到6.5分。
Kimi
作为老牌国产模型,现在突然在编程领域发力,难评是为了分羹还是真的有独到的优势。
Andante套餐,49元/月,不过它提供4.9元/周的试用,这一点非常棒。它的套餐和前两个不同,不是按次数来的,而是按tokens用量来限制,但没有明确说是多少。它的额度按照周总量和每5小时限量来控制,这个比较奇怪。根据官方说明,最高输出速度可达 100 Tokens/s,每 5 小时的 Tokens 总量可支持约 300-1200 次 API请求。根据我个人测试,实际使用中,tokens消耗很快,该套餐在做2个任务后,周总量就消耗了12%,要156小时才能重置,我感觉明显不够用。
该计划只支持Kimi-K2.5模型。
K2.5的编程效果,我体验的感觉是,在常见任务中,和glm、minimax差别不大,但是在官方强调的前端效果方面,我并没有体验到特别的不同之处,和claude对比起来还稍逊一筹。这可能是编程工具的差别,可能需要使用官方的kimi code编程工具,才能发挥它的真正能力。我不会为此迁移到kimi code,而是会坚守claude code,因此,这里我只能给到6.5分。
豆包
作为字节旗下的模型,此前发布了doubao-seed-code-preview模型,并且通过发放免费tokens的方式协议开发者提供代码用于训练,目前活动仍然进行中。理论上,doubao-seed-code应该拥有更多的编程数据可供训练,但是可能由于doubao这个基模能力太拉垮,导致code模型能力较弱。
Lite套餐,40元/每月,提供9.9元首月优惠。每 5 小时:最多约 1,200 次请求。每周:最多约 9,000 次请求。每订阅月:最多约 18,000 次请求。
火山引擎搞的这个coding plan很奇特,它不仅包含自家的doubao seed code模型,还同时包含glm-4.7, kimi-k2.5, kimi-k2, deepseek-v3.2模型。不过,这里有坑,它不是你想用glm-4.7就直接使用,你需要在claude code的配置文件中指定,否则它会给你一个混合模型调用(后端执行)。
我们只讲doubao-seed-code模型的编程效果,它是一个多模态模型,但是智商相对弱一些,不过擅长写文档,平时,我的一些文档设计的活会交给它来做。如果要打分,主观上,我只能给它4分。
千问
作为阿里旗下模型,作为国内占有率最高的云厂商,计算资源丰富,性能和速度上无可比拟。
Lite套餐,40元/月。每5小时1200次,每周9000次,每月18000次请求。
套餐内支持qwen3-max和qwen3-coder-plus模型。
作为阿里的旗舰模型,qwen3这两个模型是阿里最拿得出手的了。但在我的实际编程体验中,我几乎没有真正使用qwen来进行编程,在大部分情况下,它的水平和doubao差不多,能参与解决问题,但是能否真正解决问题,看运气和人品。据称在阿里的编辑器qoder中,它的效果不错,可能与qoder独特的上下文机制有关。如果打分,我只能给它4分。
总结
从编程能力上,我还是首推glm-4.7。(虽然网上很多博主称kimi k2.5的前端能力强,但是我没有实际体验到,有用kimi code的小伙伴可以在留言区评论。)但是,目前glm官方还需要解决限频问题,否则为啥我们不直接去用opencode的免费模型,还要买它的套餐?从这一点讲,我推荐minimax作为备选,因为kimi的量实在太难控制,我还是比较喜欢glm、minimax这种按次计费的,当然,如果你求稳,也可以试试豆包和千问。总结起来,就是国产模型的coding plan面临着模型能力不足和自身服务性价比缺陷问题。希望国产之光deepseek能早日发布新模型和coding plan。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.