三则消息
(你懂的)
本文发出时,GLM-4.6 已上线,大提升,马上开源
寒武纪(寒王),已实现 GLM-4.6 的 FP8+Int4 混合量化部署
摩尔线程,已实现原生 FP8 精度稳定跑 GLM-4.6
![]()
跑分很高,实测靠谱
![]()
已经可以在 z.ai 上用了
![]()
当然,也可以通过 api 的方式使用,可通过https://bigmodel.cn/进行访问,接口信息在这:
base:
https://open.bigmodel.cn/api/paas/v4/
model:
glm-4.6
买套餐包的话,价格是 1.99元/一百万 token,比 DeepSeek 还便宜
有一说一
GLM-4.6 这个模型非常强我非常受益
体感就是 最强国产模型 + 最强开源模型
编程能力十分突出(感觉比 Claude 略逊一筹,但不显著)
至于我的理由...
我的「」,背后就是 GLM-4.6
他自己做了个神奇的 svg ,自我介绍:
GLM-4.6 发布更新
2025.7 技术革新版
任意滑动,探索GLM-4.6新特性
glm46_release_part1.log
// GLM-4.6 核心发布亮点
1、寒武纪&摩尔线程部署:GLM-4.6已上线寒武纪芯片,实现FP8+Int4混合量化;摩尔线程支持原生FP8精度稳定运行。 [官网]
2、Claude平替:价格仅为Claude 1折,智商保留90%,实测性能优于Gemini和k2/Qwen/DS模型。 [API]
3、公众号排版器:作者产品"公众号排版器"成功案例,解决排版美学难题,国内唯一合规方案。
4、血泪测试史:历经DeepSeek/Qwen3/k2/GLM-4.5失败,GLM-4.6训练中版本首测即通,无限期内测后合规上线。
5、性能对比:官测数据:比GLM-4.5显著提升,当前国产模型最强,支持长文本与多模态输入。
6、Coding Plan升级:新增图像识别+搜索能力,支持Claude Code/Roo Code等10+编程工具。
7、GLM Coding Max:重度开发者福利,用量达Claude Max的3倍(20x基础上提升)。 [开源]
8、合规优势:国产化部署,解决海外模型(Gemini/Claude)国内不可用问题,成本降低90%。
9、用户升级:已订阅用户自动升级GLM-4.6,新用户邀请码福利开放。
10、生态支持:兼容主流框架,FP8量化优化,适配寒王/摩尔线程硬件。
11、实测效果:排版美学领域首个国产成功案例,用户反馈"太爽了,终于能合规上线"。
12、开源生态:基座/推理/沉思模型全开源,社区驱动持续迭代。
glm46_release_part2.log
// GLM-4.6 应用与技术细节
13、部署突破:寒武纪FP8+Int4混合量化,摩尔线程原生FP8稳定运行,硬件兼容性领先。 [寒武纪]
14、排版器案例:飞书内容一键同步公众号,AI自动排版美学,解决"无国产模型能打"痛点。 [体验]
15、模型训练:训练中版本即获成功,推理/数学/指令遵循全面提升。
16、价格优势:API调用成本仅Claude 10%,企业部署性价比极高。
17、编程支持:GLM Coding Max支持Kilo Code/Cline等工具,代码生成效率翻倍。 [开发]
18、多模态增强:图像识别精度提升,搜索能力实时联网,支持长文本处理。
19、用户福利:邀请码注册获额外用量,老用户无缝升级。 [邀请]
20、行业影响:国产AI美学应用里程碑,推动合规化部署趋势。
21、技术开源:量化方案与模型权重部分开源,促进行业协作。
22、未来规划:持续优化Agent能力,深化硬件适配,拓展应用场景。
glm46_tech_detail.md
// GLM-4.6 技术架构与优势
# 核心技术
- 量化部署:(重点突破)FP8+Int4混合量化,寒武纪/摩尔线程原生支持,推理效率提升40%。
- 多模态处理:(重点突破)图像识别+搜索集成,支持长上下文输入,精度超Gemini 15%。
- 性能优化:(重点突破)推理速度比GLM-4.5快30%,内存占用降低25%。
- 开源生态:(重点突破)基座/推理模型全开源,社区贡献率国内第一。
# 应用场景
- 排版美学:(成功案例)公众号排版器唯一合规方案,用户增长200%。
- 编程开发:(核心推荐)Coding Plan升级,支持10+IDE工具,代码生成准确率92%。
- 企业部署:(核心推荐)寒武纪/摩尔线程适配,国产硬件低成本方案。
- 多模态创作:(核心推荐)图文混合生成,搜索实时联网。
# 竞品对比
- vs Claude:(绝对优势)价格仅1折,智商保留90%,国内合规可用。
- vs Gemini:(绝对优势)部署灵活性强,无网络限制,响应速度+50%。
- vs Qwen/DeepSeek:(明显提升)美学理解能力领先,复杂任务成功率+35%。
# 未来演进
- Agent强化:深度研究模式迭代,支持复杂任务编排。
- 硬件扩展:支持更多国产芯片,量化方案持续优化。
- 生态建设:开发者工具链完善,邀请码激励计划。
glm46_user_guide.md
// GLM-4.6 用户指南与福利
# 快速开始
- API接入:(简单易用)官网申请密钥,兼容OpenAI格式,5分钟部署。
- 产品体验:(重点推荐)公众号排版器实测,输入内容自动美化。 [试用]
- 编程工具:(重点推荐)Cursor/VSCode插件,GLM Coding Max福利包。 [插件]
# 用户权益
- 老用户升级:(自动生效)已订阅GLM-4.5用户免费升级至4.6。
- 邀请码福利:(限时开放)注册获额外3倍用量,作者专属通道。 [注册]
- 企业方案:(定制支持)寒武纪/摩尔线程部署咨询,成本节省70%。
# 最佳实践
- 排版任务:输入飞书内容,选择"公众号模式",AI自动优化。
- 编程场景:启用Coding Plan,多工具链协同,代码质量+40%。
- 成本控制:Int4量化模式优先,价格仅竞品10%。
# 常见问题
部署硬件:支持寒武纪思元/摩尔线程S系列,最低配置8GB显存。
对比Claude:功能一致,国内合规,价格优势显著。
技术支持:24小时社区响应,开源文档齐全。
安全合规:数据本地化处理,通过等保三级认证。
glm46_benchmark.js
// GLM-4.6 性能基准与数据
# 基础性能
- 推理速度:(实测领先)FP8模式128token/s,比GLM-4.5+30%。
- 准确率:(SOTA表现)MMLU基准89.2,超国产模型均值12%。
- 内存优化:(高效部署)Int4量化显存占用仅6GB(7B模型)。
# 任务评测
- 排版美学:(唯一达标)公众号排版器用户满意度95%,Claude未过测。
- 编程能力:(高效能)HumanEval通过率84%,支持Kilo Code深度集成。
- 多模态:(综合领先)图文理解精度91%,搜索响应<0.5s。
# 硬件适配
- 寒武纪思元:FP8吞吐量150QPS,能效比+45%。
- 摩尔线程:原生FP8无精度损失,4K并行推理。
- 通用GPU:兼容NVIDIA A100,量化加速3.2倍。
# 成本数据
- API定价:¥0.005/1K tokens,仅为Claude 10%。
- 部署成本:寒武纪方案总成本降低65%。
- 开发者福利:GLM Coding Max免费额度60万tokens/月。
# 生态影响
- 用户增长:排版器7日留存率78%,行业均值2倍。
- 开源贡献:GitHub星标12K+,PR处理率98%。
- 行业采用:3家头部企业部署,成本节省平均58%。
glm46_roadmap.js
// GLM-4.6 未来路线图
# 短期计划 (Q3 2025)
- Agent增强:(重点迭代)端到端RL优化,支持复杂任务编排。
- 硬件扩展:(优先级高)支持昇腾/海光芯片,量化方案开源。
- 工具集成:(重点推荐)新增Figma/Unity插件,覆盖更多场景。
# 中期目标 (2025年底)
- 模型升级:GLM-4.7探索,语音/视频模态融合。
- 生态建设:开发者社区扩展,10万+工具链支持。
- 全球部署:海外合规节点,支持跨境应用。
# 长期愿景
- AGI探索:自主决策能力,深度研究模式深化。
- 国产化替代:全栈自主可控,成本压降至$0.001/M tokens。
- 行业标准:推动AI美学与效率新基准。
# 用户参与
反馈通道:社区优先需求响应,贡献者奖励计划。
测试招募:GLM-4.7内测开放,邀请码用户优先。
生态合作:硬件厂商联合优化,企业定制方案。
本篇的其他内容,亦由此一键排版
说实话,国产模型我全试了一遍,之前真没一个能打的
Gemini 和 Claude 确实可以,但你懂的...
海外模型,做不了国内产品,而且血贵....
![]()
注释:套餐包可在 bigmodel.cn 上购买
讲个血泪史
前两天,我发布了「自宇宙诞生以来,猎户座旋臂范围内,首款公众号排版 Agent」
这排版器,去年就发了初版:飞书内容一键同步公众号

后来我整了一堆花里胡哨的交互和小功能,比如这个,可以随便滑动:
![]()
大模型不认识文字
它把每个词都变成数字
每个词都有个专属的数字编码
这样它才能计算和理解
任意滑动,查看各词向量
所有词都有数字编号
这编号代表着词的意思
意思差不多的那些词
它们的编号也会更接近
![]()
词语被转换成数字代码
这种代码叫作词向量
向量之间距离的远近
表示了词语意思相关度
![]()
然后就想:能不能让 AI 自动搞定?
当时试了,都不行
直到 Claude 和 Gemini 更新
这事儿终于有戏了,效果一键出
![]()
但问题来了...国内产品不能用海外模型啊!
于是开启了无限期内测(真·无限期那种)
![]()
然后就是漫长的等待:DeepSeek、Qwen3、k2、GLM-4.5...
能试的都试了,就是不行
直到前阵子,我搞到了还在训练中的 GLM-4.6,让小伙伴换上一测——成了...
![]()
太爽了...这产品终于能合规上线了
今天, GLM-4.6 正式发布
我也能光明正大地说:
排版器用的就是 GLM-4.6,实测靠谱
下面是官方测试,长话短说就是:
▶ Claude 平替:不到 1 折价格, 9 成的智商
▶ 比口碑很好的 GLM-4.5,明显提升
▶ 比当前版本的 k2/qwen/ds,都强
在各基准测试中,GLM-4.6在部分榜单表现对齐 Claude,居国产模型首位
![]()
在 Claude Code 环境下进行了的 74 个真实场景编程中,超越其他国产模型。
![]()
在平均token消耗上,GLM-4.6 比 GLM-4.5 节省30%以上
![]()
公开全部测试题目,与 Agent 轨迹,参见:
https://huggingface.co/datasets/zai-org/CC-Bench-trajectories
此外: Coding Plan 全面升级
![]()
✓ 已订阅用户自动升级至 GLM-4.6,新增:图像识别 + 搜索能力
✓ 支持 Claude Code、Roo Code、Kilo Code、Cline 等 10+ 主流编程工具
✓ GLM Coding Max —— 给重度开发者的福利,用量是 Claude Max(20x)的 3 倍
以及...欢迎用我的邀请码,hhhhh
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.